Catégories
Banque Innovation

Actes du débat organisé par le cabinet Athling le 2 octobre 2018 sur le thème : « Quels modèles économiques pour les services financiers de demain ? »

Je me suis exprimé sur les sujets de la transformation du secteur bancaire, de l’évolution des services financiers et de la « banque du futur ».

Retrouvez les actes de ce débat en cliquant sur l’image ci-dessous :

image blog Olivier Klein

 

Catégories
Management

Faut-il redéfinir l’entreprise ?

La question de la définition et du rôle de l’entreprise, débattue depuis quelques années, prend aujourd’hui toute son actualité lorsque l’on sait que le Président de la République a demandé un rapport sur ce sujet. Doit-on prendre en considération seulement les actionnaires – les shareholders – ou doit-on aussi intégrer tous ceux qui jouent un rôle dans l’entreprise ou sont impactés par son activité, ses parties prenantes, autrement dit ses stakeholders ?
Toute la question est en fait de savoir pourquoi redéfinir l’entreprise.

Pourquoi faudrait-il changer ce qui est clair et défini dans le Code civil, lequel précise qu’une société doit avant tout servir l’intérêt de ses actionnaires : « Toute société doit avoir un objet licite et est constituée dans l’intérêt commun des associés. » Autrement dit, le seul intérêt de l’entreprise, son unique objectif est de servir ses associés, donc ses actionnaires.

Je rappelle que le Code civil date de 1804, ce qui n’est pas tout à fait inintéressant pour la suite du débat.

Aujourd’hui, le détenteur provisoire du capital, l’actionnaire d’une société cotée, a-t-il encore à voir avec la figure de l’associé visée par le Code civil de 1804 ? C’est bien tout le débat au fond et ce sur lequel il faut tenter de réfléchir.

Le Président de la République a demandé un rapport commun à Nicole NOTAT, ancienne Responsable de la CFDT, et à Jean –Dominique SENARD, Président de MICHELIN, deux personnes qui ont acquis une expérience très différentes de la vie de l’entreprise. Très récemment publié, il est vraiment centré sur ce sujet : Quelle redéfinition de l’entreprise ?

Les auteurs du rapport proposent de changer la définition du Code civil pour la formule suivante : « La société doit-être gérée dans son intérêt propre, en considérant les enjeux sociaux et environnementaux de son activité. » Et ils ajoutent que si l’on change la définition de l’entreprise de cette façon, il faut proposer aux entreprises qui le souhaitent de définir de surcroît une « raison d’être ».

Je vais essayer de développer ce sujet en apportant ma vision, avec une approche historique des origines du débat, son évolution et les forces qui ont contribué à ce changement.

Selon Larry FINK, Président du premier gestionnaire de fonds mondial, BlackRock, dont le métier est de faire des choix d’investissements rentables dans les entreprises, il est nécessaire de redéfinir l’entreprise pour y inclure une incitation à agir pour le bien commun. On est très loin de la première définition du Code civil ! A l’opposé, certains peuvent craindre que tout changement entraîne une juridicisation de l’entreprise.

Ce débat, en réalité, doit être mis en perspective pour mieux l’appréhender avec un recul historique afin d’établir son propre jugement.

En premier lieu, le terme de gouvernance est apparu dans les années 80 et s’est fortement développé à partir des années 90. Ce concept de gouvernance d’entreprise recouvrait et recouvre toujours aujourd’hui, pour l’essentiel, la façon dont s’organisent les relations entre les actionnaires et les dirigeants de l’entreprise. C’est ce que l’on veut dire en général lorsque l’on parle de gouvernance d’entreprise.

En fait, dans la pratique, la gouvernance d’entreprise – si l’on utilise ce vocable nouveau pour parler de choses anciennes – a évolué avec les différents âges du capitalisme, et avec ses différents modes de régulation. A tel point qu’aujourd’hui on peut se demander s’il ne faudrait pas, dans le terme « gouvernance », embrasser l’organisation de l’ensemble des relations entre les dirigeants de l’entreprise et toutes ses parties prenantes, et non plus seulement avec ses actionnaires.

Dans l’histoire du capitalisme, si les différents modes de régulation se sont succédés, ils n’ont jamais annulé les phases précédentes. Des formes nouvelles remplacent pour l’essentiel les formes anciennes, mais ces dernières peuvent subsister sur un mode minoritaire.


Première forme ancienne, encore très vivante malgré tout, pratiquement l’unique au XIXème siècle et au début du XXème, le capitalisme familial est la forme initiale de développement des entreprises. Ces entreprises naissent sur la base d’un capitalisme familial dans lequel les rapports entre les actionnaires et les dirigeants sont très simples. A partir du moment où vous exploitez une idée en créant votre entreprise et en la développant, vous en êtes à la fois le dirigeant et l’actionnaire. C’est ainsi que les familles WENDEL, MICHELIN, RENAULT, par exemple, ont démarré à ces périodes. Elles ont souvent même donné leur nom à leur entreprise. Ces familles étaient propriétaires de leur entreprise et les dirigeaient, tout simplement. Evidemment il n’y avait pas de forte discussion sur l’attribution du résultat, ni sur la légitimité du dirigeant. On ne rencontrait donc pas de problème de gouvernance.


Ensuite, plutôt dans la période de l’entre deux guerres, est apparu aux États-Unis comme en Europe une forme que l’on peut appeler le capitalisme managérial.

Qu’est-ce que le capitalisme managérial ? C’est la résultante d’évolutions historiques très importantes.

A commencer par la transmission de l’entreprise aux générations suivantes. Les enfants, parfois nombreux, puis le cas échéant les petits enfants. Naturellement, rapidement, de nombreux héritiers n’ont plus occupé les fonctions de dirigeant de l’entreprise. Il fallait donc trouver un moyen de désintéresser ces héritiers, partiellement, voire totalement. En second lieu, ces entreprises ont grandi. Pour pouvoir croître de plus en plus, elles ont dû ouvrir leur capital, qui n’était donc plus seulement détenu par les familles. Ce qui s’est traduit par le développement des sociétés anonymes. Les sociétés anonymes différaient des sociétés constituées par des associés. Cela représentait déjà une très forte évolution. Cela permettait de recevoir des capitaux de la part d’actionnaires non dirigeants. Et dans ce cas, l’actionnaire a une position très éloignée de celle de l’associé. Naturellement, à partir du moment où les actionnaires n’étaient plus dirigeants de l’entreprise et où il ne s’agissait plus d’une transmission familiale, il fallait organiser la liquidité des capitaux investis, autrement dit l’assurance pour l’actionnaire non dirigeant de pouvoir sortir du capital s’il le souhaitait. Ce qui revenait à distendre encore davantage le lien entre un dirigeant permanent et un actionnaire passagèrement partie prenante de l’entreprise. Cela a conduit au développement de la bourse, élément de plus en plus important de régulation. Aux États-Unis, aujourd’hui, dans 80% des entreprises, les actionnaires ne détiennent pas plus de 10% des actions.

On mesure ainsi à quel point la distanciation entre les dirigeants et les actionnaires s’est développée.

Très souvent, par le fait même de l’évolution historique et en raison de la dispersion de l’actionnariat, aucun actionnaire n’avait de poids vis-à-vis des dirigeants. Il était difficile pour les actionnaires d’exercer un contrôle réel et efficace sur les dirigeants. La liberté pour un actionnaire de vendre ses actions s’est échangée de facto, d’une certaine manière, contre la perte du contrôle des dirigeants.
De fait, un actionnaire qui cherche la liquidité n’a sans doute ni l’envie ni le temps de contrôler le dirigeant. Ainsi, dans cette période de l’entre deux guerres puis après-guerre, les dirigeants des entreprises se sont progressivement émancipés de leurs actionnaires et ont mis en place une sorte de contrôle managérial interne. Les actionnaires ont le droit formel de nommer les membres du Conseil d’administration, du Conseil de surveillance, et ces Conseils ont le droit formel de nommer les dirigeants. Mais souvent cependant, et encore aujourd’hui on le sait bien, ce sont les dirigeants qui cooptent eux-mêmes les membres du Conseil de surveillance ou du Conseil d’administration, et l’on a beau faire appel à des administrateurs indépendants, beaucoup d’administrateurs indépendants sont des proches des dirigeants des grands groupes. On a beau mettre en place des règles, il n’en reste pas moins que c’est encore souvent de la cooptation.

Les entreprises se sont donc développées progressivement en conglomérat et la figure du dirigeant s’est imposée comme essentielle, à juste titre, pendant les trente glorieuses.

Sur quoi se fonde la légitimité de ces dirigeants ? Elle est fondée sur leurs compétences, leur technicité, et c’est là qu’apparait la technocratie. Le pouvoir vient de la capacité technique et de la compétence managériale. Ces dirigeants, en quelque sorte émancipés de leurs actionnaires, ont recherché la croissance, la pérennité de leur entreprise, ce qui est tout à fait louable, et souvent aussi un pouvoir croissant à travers la taille de leur groupe.
Dans ce schéma, la place des actionnaires est plutôt réduite et l’efficacité de l’entreprise, en tout cas du point de vue des actionnaires, n’a pas été la priorité des dirigeants. La priorité n’était pas forcément la recherche permanente de la meilleure valeur ou de la plus grande efficacité. L’objectif n’était donc pas celui de la valorisation pour l’actionnaire.

De fait, en réalité, le rendement n’était pas avantageux pour les actionnaires pendant cette période. Il a même été souvent peu attractif pendant les trente glorieuses.

Ensuite, par voie de conséquence, parce que tout système produit ses excès, on est passé au capitalisme que l’on peut appeler actionnarial.
On n’est pas revenu au capitalisme familial, mais on est sorti, principalement dans les années 80-90, du capitalisme managérial pour entrer dans le capitalisme actionnarial.


De fait, que s’est-il passé ? On assiste fin 70 et notamment dans les années 80 à trois phénomènes.

Le premier phénomène que l’on peut constater à cette époque est le déclin relatif de la puissance économique des États-Unis. Vers la fin des années 70 et au début des années 80, les États-Unis s’interrogent sur leur déclin économique. L’opinion commune qui commence à circuler à ce moment-là est que les conglomérats américains, créés et développés dans les trente glorieuses, ne sont ni très efficaces, ni très compétitifs et que leur diversification à tout prix n’apporte pas beaucoup de rentabilité et contribue au déclin économique relatif des États-Unis.

Le deuxième constat, à cette époque, est la globalisation des marchés financiers, la dérèglementation, le décloisonnement des marchés financiers et des banques. Cela a provoqué naturellement un retour des actionnaires et des créanciers. En effet, la globalisation financière a conduit à leur redonner du pouvoir. Dans les années précédentes, les années 70, on a connu des taux d’intérêt réels négatifs. L’inflation était souvent supérieure aux taux d’intérêt nominaux. Les débiteurs étaient très avantagés et les sociétés privilégiaient l’endettement.

A partir de la fin des années 70 et du début des années 80, les politiques monétaires luttent contre l’inflation et l’on passe à des taux d’intérêt positifs beaucoup plus élevés amenant des taux d’intérêts réels, donc diminués de l’inflation, positifs. Le pouvoir passe alors des débiteurs aux créanciers, mais aussi aux actionnaires, qui avec la globalisation peuvent choisir le meilleur placement pour leurs actions dans le monde entier. Ils deviennent ainsi beaucoup plus exigeants sur le rendement attendu et font donc monter la pression sur les dirigeants.

La bourse va prendre de plus en plus d’importance à partir des années 80. Et les actionnaires reprennent le pouvoir. Comment ? Comme ils ont beaucoup plus de choix de placements, ils exercent leur liberté de vendre à chaque fois que le rendement leur semble insuffisant. Et s’ils vendent massivement les actions d’une entreprise, elle s’affaiblit et devient opéable, avec le risque pour les dirigeants d’être remplacés. Les dirigeants se sentent alors menacés. Et dans la deuxième moitié des années 80, les traders effectuent des achats de groupes, puis les dépècent en les revendant par partie, avec des plus-values potentiellement considérables.

Et cela a engendré un troisième phénomène : le renforcement institutionnel du rôle des actionnaires. Ce pouvoir, en raison de leur capacité à vendre les actions de l’entreprise ou à les acheter lors des OPA « sauvages », etc., donc à déstabiliser les dirigeants, a suscité d’une façon spontanée, d’une certaine manière, le renforcement de leur rôle institutionnel.

Cela s’est traduit comment? Par un rappel à l’ordre des dirigeants par leurs mandants, donc par l’apparition de la « gouvernance ». C’est-à-dire par la prise en main par les actionnaires de leur rôle de mandants et l’exigence adressée aux dirigeants de prioriser dans leurs objectifs la maximisation de la richesse des actionnaires. Dans les entreprises, on a vu de ce fait se créer des comités d’audit, des comités de rémunération ou de sélection, des comités stratégiques et des comités des risques.

Aujourd’hui, dans les banques par exemple, et c’est très bien comme cela, les régulateurs vérifient que la gouvernance est bonne et que les membres du Conseil d’administration ou de surveillance reçoivent les bonnes informations, que les Comités d’audit ou de risques vont bien au fond des sujets, etc.

De la même manière, on a instauré dans la rémunération des dirigeants des mécanismes d’incitation pour aligner leurs intérêts sur celui des actionnaires. La proportion de primes à beaucoup augmenté et les stock-options sont devenues une norme très courante dans les années 90. Ce qui avait du sens en regard des excès du capitalisme managérial.

Et puis naturellement les sanctions se sont développées. Si la valorisation était insuffisante, le dirigeant était renvoyé, ce qui ne se faisait pas vraiment beaucoup dans les décennies précédentes. C’est devenu parfois une manie. Dès que le résultat était jugé insuffisant, on pouvait renvoyer les dirigeants. Les normes de rentabilité sont apparues dans les années 90 puis, dans les années 2000. Les normes de ROE – rentabilité des capitaux propres se sont établies à un minimum de 15%, quel que soit le secteur, la conjoncture ou tout autre contexte. On a aussi vu surgir la théorie de la création de valeur, à mon avis totalement paradoxale, mais très appliquée. Tout cela pour quoi? Pour développer l’efficacité, la compétitivité et la rentabilité et donner une rémunération plus significative aux actionnaires ; ce dont ils avaient singulièrement manqué, il faut en convenir, les 30 années précédentes.

Quels sont les effets positifs du capitalisme actionnarial ? Plusieurs cercles vertueux s’enclenchent.

Le premier, à titre d’exemple et pour le symbole, c’est la Silicon Valley. Pourquoi ? Parce que cela a été extrêmement favorable à l’innovation dans les années 80-90 et même encore aujourd’hui. Les innovations technologiques notamment ont été déclenchées par une explosion de petites sociétés très innovantes, des start-up de toutes sortes.

Pourquoi ont-elles pu éclore aussi vite, aussi bien et se développer si fortement ? Parce qu’elles ont pu attirer les talents grâce aux stock-options. Cela devenait possible ainsi de rémunérer le risque que prenaient ces talents, alors qu’ils auraient eu un salaire bien plus rémunérateur s’ils étaient entrés dans de grandes entreprises. Ils prenaient beaucoup plus de risques, recevaient une moindre rémunération, mais pouvaient devenir riches en cas de succès ; ce qui est très difficile quand on est salarié. Donc cela a permis, et c’est le premier cercle vertueux, de créer un environnement financier favorable à l’innovation technologique.

Le deuxième cercle vertueux repose sur le fait que cela a favorisé le développement du capital-risque, ce qu’on appelle le « Private Equity », puisque la bourse était une sortie évidente pour ces start-up.

Le capital-risque s’est développé très vite et a fourni beaucoup de capitaux aux start-up parce qu’il était attiré par le potentiel exceptionnel de plus-value en cas de réussite.

Ces sociétés innovantes ont ainsi trouvé les capitaux nécessaires pour se développer et réussir suffisamment souvent pour que cela soit significatif statistiquement.

Il faut avoir en tête que, pour ces deux raisons déjà, les gains de productivités aux États-Unis de 1994 à 2005 ont été deux fois supérieurs à ceux connus en Europe. Donc il y a bien un phénomène réel d’innovation, qui produit des gains de productivité et qui est lié à tout ce que nous venons d’évoquer.

A cela viennent s’ajouter la proximité des universités américaines avec l’industrie et le développement, d’une recherche appliquée dans leurs centres de recherches, articulée de façon efficace aux besoins des entreprises.

Le troisième cercle vertueux, et cela a très bien marché dans les années 90, est l’actionnariat des salariés, très répandu aux États-Unis notamment. Ainsi, quand la valeur monte très fortement en lien également avec la baisse régulière des taux d’intérêt pendant cette période, le revenu des salariés monte au-delà de leur salaire. Cela se traduit par plus de pouvoir d’achat, plus de croissance et plus de développement pour les entreprises, donc plus de valeur.
Et le cercle vertueux est ainsi bouclé.


Cependant, ce capitalisme actionnarial est devenu dangereux. Malgré tous ces succès, en réalité, il a assez vite conduit à des excès et des dérives phénoménales qui expliquent les raisons pour lesquelles on envisage de sortir du capitalisme actionnarial et peut-être de créer un capitalisme que j’appellerai partenarial.

Ces excès, on les a connus dès 1997. Ils sont venus de la croyance qu’il n’y avait plus de cycle économique, puisque les cercles vertueux s’étaient enclenchés, et qu’à partir du moment où la valeur des entreprises montait sans cesse, les revenus augmentaient, même si ce n’était pas à travers les salaires, ce qui, à son tour, engendrait une plus grande demande, donc une plus grande croissance, etc.

On a ainsi cru dans les années 90 qu’il n’y avait plus de cycle économique et que les crises étaient terminées. Or à chaque fois que l’on a pensé cela, on a été sévèrement touché par la suite. De fait, à partir de 1997, et peut-être un peu avant, la spéculation a pris la place des paris raisonnables. À partir du moment où vous pensez qu’il n’y a plus de cycle, que demain sera toujours supérieur à aujourd’hui et qu’ainsi la croissance est sans fin, il devient évidemment intéressant de parier sans cesse en s’endettant davantage, en achetant davantage d’actions, davantage d’immobilier, etc. Et, pour les entreprises, en investissant toujours davantage.

En réalité cela a développé des bulles spéculatives, notamment en bourse, et notamment sur des valeurs technologiques, avec au final le magistral krach boursier de 2000. En France, par exemple, le CAC40 en juin 2000 était à 7000 et en mars 2003 à 2300. La chute a été vertigineuse et ce krach ne pouvait pas être sans répercussions sur l’économie réelle évidemment. Il a donc conduit à des récessions. Premier point et premier excès ainsi, les bulles, boursières notamment, apparaissent très clairement, à ce moment-là.

À partir des années 2003, on recommence à croire qu’il est facile d’effacer les bulles et les krachs, et que l’on repart pour une série de longues années enthousiasmantes. Des années au cours desquelles, en réalité, l’euphorie gagne à nouveau les esprits, avec une propension à voir tout en rose qui l’emporte sur la sagesse. Ainsi, de 2000 jusqu’à 2007, on assiste à une montée de l’endettement des agents privés qui dépasse l’entendement. En voici quelques exemples. Aux États-Unis en 2000, le taux d’endettement des ménages était de 100% des revenus, il est passé à 140% en 2007. En Angleterre il était de 100% en 2000 et il est passé à 170% en 2007. Même phénomène en Espagne. En revanche, en Allemagne, il était à 70% en 2000 et était resté à 70% en 2007. Les Allemands sont d’une stabilité absolument remarquable, tandis que le reste du monde a vu son endettement s’envoler. La France est passée de 60% à 80%, ce qui était moins flagrant, mais significatif tout de même !

Tous les agents privés, non seulement les consommateurs mais aussi les entreprises, ont connu une montée du niveau d’endettement préoccupante qui a conduit à une bulle du crédit et à une bulle de l’immobilier, puisque beaucoup de gens s’étaient endettés pour acheter de l’immobilier de rendement ou par pure spéculation. Et cela s’est terminé par une crise financière et économique majeure, la deuxième de notre histoire depuis 1930, de 2007 à 2009.

Ajoutons au chapitre des excès et des échecs, que pour respecter (quel que soit le niveau de la température, des marées et des vents !) la norme de 15% minimum de rentabilité des capitaux propres, beaucoup d’entreprises ( pas seulement aux États-Unis mais notamment aux États-Unis) ont dû racheter leurs propres actions et s’endetter pour cela, ce qui les a évidemment fragilisées et a conduit à l’accumulation un peu partout de positions financières fragiles et dangereuses. Enfin, une course à la taille s’est déclenchée à nouveau pour des prétendues synergies, alors que les études les plus sérieuses a posteriori montraient qu’une fusion sur deux ne créait pas de valeur. Mais voilà comment l’euphorie peut prendre. Lorsqu’on est dans une phase euphorique, tout paraît possible.
Sur cette période, le revenu des dirigeants a évolué très significativement. Aux États-Unis en 1965 – les chiffres sont quand même intéressants- le revenu moyen d’un dirigeant d’entreprise représentait 44 fois celui des ouvriers. Dans les années 2000, le revenu moyen d’un dirigeant, y compris les plus-values sur stock-options, équivalait à 400 fois les plus bas salaires. Ce qui évidemment a conduit à un certain sentiment d’inégalité, beaucoup plus vif néanmoins aux États-Unis qu’en France, car ces chiffres sont plus vrais pour les États-Unis ou l’Angleterre que pour la France. Mais cela conduit à certains effets que l’on connaît bien aujourd’hui, dans ces pays notamment.

Un des derniers effets de tout cela a été les tricheries et la créativité comptable. On en a vu des exemples récents en 2001-2003, ENRON, WORLDCOM ou PARMALAT, pour ne citer que les plus célèbres, mais il y en a d’autres, y compris parfois en France, qui ont conduit en 2003 à un gel total du marché obligataire. Plus personne ne voulait prêter sur les marchés obligataires, et heureusement que les banques étaient là pour financer les grandes entreprises, car il était impossible d’émettre des obligations. Il y avait, en conséquence de ces tricheries, une illiquidité totale du marché des obligations en 2003, il faut s’en souvenir.

Cela a conduit souvent à une forme de « court-termisme » de la part des dirigeants parce que le trimestre de présentation des résultats influe beaucoup sur leur comportement. On sait bien que trop de « court-termisme » dans la conduite des affaires peut être dangereux pour l’avenir, dangereux pour les sociétés et dangereux pour la société en général. C’est d’ailleurs dénoncé par beaucoup d’économistes américains également.

La question se pose alors, si ce capitalisme actionnarial a conduit à tant d’excès, de savoir quelles réformes opérer pour le mieux-être commun et si, au fond, il est vraiment légitime que le seul mandant du dirigeant soit  l’actionnaire. Faut-il aujourd’hui un capitalisme partenarial ?


 La réponse à cette question dans la littérature économique et financière est qu’il est normal que ce soit le seul actionnaire, parce que c’est lui qui prend le risque. Il n’a pas en effet l’assurance d’un rendement fixe, en contrepartie de l’apport de ses capitaux. Il n’a contractuellement aucune certitude de retrouver son argent ou un rendement quelconque défini d’avance. Pour le préteur, ou la banque, c’est un peu différent. Il prend un risque de crédit bien évidemment, mais si l’entreprise ne fait pas faillite, a priori il passe avant l’actionnaire et surtout, sauf défaut de l’emprunteur, il obtient un rendement préfixé même si la situation économique de la société emprunteuse évolue en bien ou en mal.

Il est donc légitime que l’actionnaire ait un contrôle sur la gestion. C’est la moindre des choses. Cependant, il faut voir, et peut-être s’accorder sur cela, que, de plus en plus, les autres parties prenantes de l’entreprise prennent aussi des risques. La théorie selon laquelle les seuls actionnaires prennent des risques n’est pas suffisante en soi, notamment à partir des années 80-90. Pourquoi ?

Parce que les dirigeants qui ont dû davantage satisfaire les actionnaires ont régulièrement augmenté le taux des dividendes, y compris quand les résultats baissaient et précisément pour compenser des résultats qui baissaient. Aux États-Unis, voici quelques chiffres très explicites.

Entre 80 et 90, le profit des entreprises a légèrement monté, mais la part des dividendes dans le profit a été multipliée par deux. Ce qui fait que le taux de distribution de dividendes sur le résultat net est passé entre 1980 et 1990 de 24.7% à 50.1%. De 1990 à 1997, le profit a beaucoup augmenté et le taux de dividende a été maintenu. De 1998 à 2003, le profit a baissé et les dividendes ont monté en valeur absolue. De ce fait, en 2003, aux États-Unis, 83% du résultat était distribué en dividende. On voit là une forme de protection de l’actionnaire, qui essaie naturellement de lisser au mieux ses risques. Mais si le risque de l’actionnaire baisse, c’est parce que parallèlement d’autres risques ont été accrus. Notamment celui des salariés, qui connaissent de plus en plus de risques sur leur part variable ou sur leur emploi. Soulignons aussi que le partage de la valeur ajoutée depuis le début des années 2000 s’est déformé dans la plupart des  pays  de l OCDE , et notamment aux États Unis , au détriment des salaires et en faveur des profits ( sauf en France et en Italie ) . Cela n’est pas malsain et s’avère parfois plus efficace. Mais  il faut dès lors considérer qu’ils sont aussi une partie prenante de l’entreprise, à mieux prendre en compte. Citons aussi le risque des fournisseurs de plus en plus contraints, le risque des clients parfois mis à contribution par un changement de qualité du produit, une moindre sécurité, voire une obsolescence accélérée – la presse en a parlé encore très récemment.

Il est donc légitime, me semble-t-il, de prendre au sérieux le risque auquel sont exposées les autres parties prenantes. Comment peut-on faire ? Pour les salariés, l’idée, déjà acquise en France et dans beaucoup d’autres pays, est qu’ils soient représentés au Conseil d’administration, qu’ils soient membres du Conseil, puisqu’ils sont parties prenantes de l’entrepris.  Pas majoritairement, mais comme une force d’équilibre, de façon à ce que leur voix soit entendue.
Pour les fournisseurs, cela peut-être les lois.

Pour l’environnement, il y a les lois, mais aussi l’image des entreprises.

Pour les clients, c’est la force des réseaux sociaux, c’est l’image publique. Aujourd’hui, lorsque l’on menace une entreprise de parler dans les réseaux sociaux de ses manquements vis-à-vis des clients, cela la fait bouger. Un facteur de régulation est aussi le judiciaire, comme par exemple, aux États-Unis, grâce aux class actions. Ce n’est pourtant pas une sinécure, et j’espère qu’il n’y aura pas trop de class actions en France, mais il n’en reste pas moins que cela fait bouger les entreprises.

Et il y a aussi – pardonnez-moi ce prisme particulier- la forme coopérative ou mutualiste, en sachant bien que ce n’est qu’une forme possible et non l’unique. Une forme possible parmi beaucoup d’autres. Permettez-moi donc, un court instant, un plaidoyer pro domo pour les banques coopératives ou mutualistes : sans sacrifier en rien à leur efficacité, elles répondent déjà dans leur métier de banque de détail à plusieurs de ces caractéristiques. En réalité, leurs propriétaires sont leurs clients-sociétaires. Ces derniers élisent les administrateurs, eux-mêmes sociétaires. Autrement dit, on a au Conseil, pour la quasi-totalité des administrateurs (à part les représentants des salariés), des sociétaires clients. Cela pèse sur la stratégie et sur la conduite de l’entreprise inévitablement. Je ne pense pas que cela soit facile à faire partout, mais dans une banque de détail, par exemple, c’est réaliste et utile.

La banque coopérative, c’est aussi un modèle décentralisé qui renforce la proximité relationnelle non seulement avec ses clients, mais aussi avec les territoires sur lesquels la banque opère. Nous sommes davantage en symbiose parce que nous collectons l’épargne et prêtons au même endroit, et évidemment nous sommes très attentifs à l’économie régionale.

Citons aussi la place donnée aux salariés, puisque il y a déjà un moment, par exemple aux Caisses d’Epargne, que des représentants des salariés sont membres du Conseil de surveillance.

On a là une gouvernance élargie, qui d’une certaine manière est d’une grande modernité.

Pour conclure, un débat à ce sujet est fondamental et l’entreprise mérite une redéfinition bien pensée pour élargir son rôle, pour prendre davantage en compte légitimement toutes les parties prenantes. Sans pour autant prendre le risque d’un « juridisme » paralysant, car si l’on définissait mal l’entreprise cela pourrait provoquer des procès sans fin ; ce qui serait insupportable.

Je trouve intéressante la formule« gérée dans son intérêt propre » dans le rapport de SENARD et de NOTAT. Cela veut dire que l’on a perçu le sens de l’entreprise, le sens du long terme. Et y ajouter « en considérant les enjeux sociaux et environnementaux de son activité » me paraît, en première analyse, raisonnable.

De même que l’idée de proposer aux entreprises qui le souhaitent de définir une raison d’être plus particulière. Cette définition doit en effet être appropriée à chaque forme d’entreprise, car la raison d’être d’une banque régionale ne peut pas être la même que celle d’une entreprise sidérurgique ou d’une entreprise informatique, etc. Chaque entreprise, cotée ou pas, privée ou coopérative, grande ou petite, si elle le souhaite, si son Conseil le souhaite, peut définir sa raison d’être et réinventer le défi de la gouvernance.

Il me semble, très modestement, que c’est à ce prix-là, entre autres, que nous pourrons à l’avenir continuer d’ avoir des sociétés ouvertes et entraver la montée du populisme.

Catégories
Banque Politique Economique Zone Euro

4eme édition des Rencontres du financement de l’économie : l’évolution possible de la politique monétaire et des taux d’intérêt et les conséquences sur l’économie et les banques

le 28 mars 2017

Alors que la zone Euro est à la croisée des chemins et que les gouvernements des pays membres se penchent sur son fonctionnement, Olivier Klein traite ici de l’évolution possible de la politique monétaire et des taux d’intérêt dans ce contexte.

Les taux vont-ils monter et quels sont les fondamentaux qui le justifieraient ? Quels sont les effets des taux bas sur l’économie et sur la capacité de financement des banques ?

Une première réflexion, un peu générale, mais fondamentale : les taux très faibles ne sont pas un phénomène dû exclusivement aux banques centrales. On observe que la croissance repart en ce moment, tant aux États-Unis que dans les pays émergents et en Europe. C’est une bonne nouvelle. Cela va probablement tirer les taux vers le haut. Mais depuis la crise financière, on a connu une période de croissance très faible, avec une crise de surproduction mondiale, qui s’est traduite par un dynamisme très faible de l’offre et de la demande. Évidemment, une demande faible et une épargne forte couplées à un investissement faible sont la manifestation d’une surproduction mondiale. De la même façon, des gains de productivité faibles et une démographie déclinante mondiale – à part en Inde et en Afrique – entretiennent un manque de dynamisme de l’offre. La simultanéité d’un manque de dynamisme de la demande et de l’offre a pour conséquence des taux de croissance très faibles et fait baisser naturellement les taux d’intérêt.

Si les marchés fonctionnaient bien, et si l’économie s’autorégulait spontanément, les taux d’intérêt rejoindraient les taux d’intérêt dits naturels. Dans la théorie économique, ces taux naturels sont ceux qui égalisent l’épargne et l’investissement à un niveau de plein-emploi. Il se trouve que c’est un taux que l’on ne peut pas observer, c’est un taux calculé par les économistes. Et ces calculs conduisent à des taux d’intérêt extrêmement bas. Parfois même, il est calculé que ces taux auraient dû être négatifs pour pouvoir égaliser la demande et l’offre, soit l’épargne et l’investissement, au niveau du plein-emploi. Notamment dans la zone euro.

On voit donc bien que ce n’est pas seulement la banque centrale qui pousse les taux d’intérêt vers le bas.
Cela conduit à penser que l’on était il y a encore peu de temps soit dans une période de stagnation séculaire, dont on connaît tous les effets et les raisons, soit, au moins depuis la crise, dans une longue période classique de désendettement avec croissance très faible, qui se produit après toutes les crises de surendettement majeures, telles que celle que l’on a connue dès 2007. Les deux à la fois sont possibles, au moins temporairement. Dans les deux cas, cela justifie des taux d’intérêt extrêmement bas.

À ces réflexions, il faut ajouter le fait que la violente crise financière que nous avons connue nous a fait entrer dans une période de déflagration majeure, avec un risque très élevé de déflation. Pour lutter contre cette déflation, les banques centrales ont conduit des politiques extrêmement agressives, mais nécessaires. Toutes les grandes banques centrales ont agi en baissant les taux encore plus bas que les marchés ne les poussaient, c’est-à-dire en dessous des taux neutres. Comme on le sait, le taux neutre est égal au taux de croissance réel augmenté du taux d’inflation, donc au taux de croissance nominale. Quand on pousse les taux en dessous des taux neutres, on le fait parce que l’on veut ranimer la croissance en faisant repartir l’inflation – et éviter ainsi la déflation – et, bien sûr afin de limiter les risques d’une crise de surendettement pour éviter les effets « boule de neige » sur la dette, dus à des taux d’intérêt nominaux supérieurs au taux de croissance nominale.

Quand on a une croissance extrêmement faible et une inflation quasi nulle, on fait face à ce que l’on connaît bien, le zero lower bound, qui est la limite du taux zéro. La politique monétaire et l’autorégulation de l’économie se retrouvent donc contraintes en principe par l’impossibilité d’amener les taux en dessous de zéro, alors qu’ils devraient l’être pour rééquilibrer la demande et l’offre au niveau du plein emploi.. En France, par exemple, les banques ne peuvent pas proposer des dépôts à taux négatifs, sauf aux grands institutionnels. On est limité à ce taux zéro. On voit bien que cela peut être une trappe pour une situation de sous équilibre durable. Si les taux ne peuvent pas descendre suffisamment bas, la conséquence peut ainsi être de rester dans une situation de sous équilibre, de sous production, avec sous-emploi durable et avec un risque de déflation persistant. Avec des taux d’intérêt qui, bien que très bas, n’ont plus le ressort pour remonter, parce qu’ils devraient être encore plus bas.


Si l’on en revient maintenant aux effets sur l’économie des taux très bas, ils sont bien connus. En principe, ils font repartir la croissance par un premier effet, la stimulation de la consommation et de l’investissement et l’abaissement de l’attrait de l’acte d’épargne.
Le deuxième effet est l’effet richesse. La baisse des taux fait remonter le prix des actifs patrimoniaux, que ce soit l’immobilier ou les actions, ce qui soutient à son tour la consommation et l’investissement pour les ménages comme pour les entreprises.
En 2007, les taux d’endettement des agents privés des pays avancés avaient atteint des niveaux extrêmement élevés. Cette crise de surendettement, qui est la raison fondamentale de la crise financière que nous avons connue en 2007-2009, a entraîné une crise de surendettement des États. À partir de 2008-2009, les États s’endettèrent beaucoup pour faire face à cette crise financière et économique. Cela conduisit un certain nombre d’États à des situations de surendettement, rejoignant ainsi la situation des acteurs privés.

Cela conduisit naturellement, comme toujours dans l’histoire financière, à de très grandes périodes de désendettement, douloureuses, qui asphyxient potentiellement la croissance.
L’effet de taux très bas, inférieurs aux taux d’intérêt neutres permet de faciliter ces périodes de désendettement. Comme dit précédemment, cela permet d’éviter les crises dites « boules de neige » que l’on connaît bien. Si les taux d’intérêt sont supérieurs aux taux neutres, dès lors que l’on a un taux d’endettement élevé, la dette s’emballe, parce qu’il faut financer les intérêts de la dette à payer par un accroissement de la dette elle-même. Inversement si l’on a des taux plus bas que les taux neutres, on peut se désendetter de façon moins douloureuse. Évidemment, c’est ce qu’ont fait les banques centrales en baissant beaucoup leurs taux courts, jusqu’à zéro. C’est usuel dans la politique monétaire. La novation de la part de quelques banques centrales a été de porter certains taux courts en dessous de zéro, pour déjouer le Zéro lower bound. La BCE a lancé une politique de taux négatifs sur les dépôts des banques à la banque centrale. Nous sommes à -0,40 %, aujourd’hui. Si la BCE l’a fait, c’est probablement parce que le taux d’intérêt naturel en zone euro est négatif. C’est aussi évidemment une façon d’inciter les banques à ne pas conserver de réserves de liquidités à la banque centrale, mais au contraire à les utiliser pour faire davantage de crédits. C’est bien ce qui s’est passé, d’ailleurs. Les banques se sont dit qu’il valait mieux faire des crédits, même à 1,50 %, plutôt que de perdre -0,40 % en laissant les liquidités à la banque centrale. Cela faisait 1,90 % de différentiel. Toutes les banques ont donc été incitées à faire davantage de crédits. Et cela a poussé à nouveau les taux à la baisse, puisque l’offre de crédits a augmenté et que la compétition entre les banques a ainsi été encore plus vive. Donc, les banques ont prêté plus, dans le cadre d’une politique intelligente de la banque centrale, même si elle n’est pas très usuelle, et même si elle comporte évidemment des risques.

En outre, comme aux États-Unis, mais plus tardivement, la BCE a pris des mesures beaucoup plus radicales en faisant notamment du quantitative easing, c’est-à-dire du développement de son propre bilan bancaire en achetant directement des dettes publiques et privées. En réalité, il s’agissait là de se donner les moyens de contrôler aussi les taux longs, alors que la pratique traditionnelle des banques centrales est de contrôler les taux courts. Il lui fallait contrôler les taux longs pour les amener à des taux qui étaient compatibles notamment avec la trajectoire de solvabilité budgétaire des États. Entre 2010 et 2012, on était entré dans une crise majeure de la zone euro, période hautement risquée puisque s’était installée une défiance contagieuse, où l’on avait la dynamique catastrophique suivante : la crainte quant à la solvabilité de la dette publique, qui poussait à la hausse les taux d’intérêt des dettes publiques, qui renforçait à son tour le risque d’insolvabilité. La politique extraordinairement bienvenue alors de Mario Draghi a été de lancer le quantitative easing pour abaisser les taux longs des États et faire cesser ces cercles vicieux. Sans cela, la zone euro aurait très probablement éclaté. Son célèbre « whatever it takes » a été salvateur.

En outre, on le sait bien, le quantitative easing a des conséquences sur les changes. Or, le niveau de change peut aider, dans certaines conditions, à rehausser le niveau de croissance. Il y a eu des tentatives de faire baisser le dollar, ou de faire baisser l’euro, etc., par les banques centrales concernées, à travers les politiques de quantitative easing.


La question que l’on se pose tous aujourd’hui, et ici-même, est de savoir combien de temps les taux très bas, voire négatifs, peuvent encore durer et si l’on est définitivement passé dans une phase de hausse des taux. Et si la réponse est positive, à quelle vitesse cette hausse va se produire.

Dans le fond, en 2008-2009, j’étais persuadé que les taux longs très bas seraient durables. Je n’avais pas complètement tort, puisque nous sommes en 2017, et qu’ils sont encore extrêmement bas. Pour moi, ils étaient durables, à cause du contexte et des raisons que je viens d’expliquer. Pourquoi aujourd’hui pourrait-on changer notre paradigme et penser que les taux pourraient remonter ?

Je l’ai dit tout à l’heure. D’abord, parce qu’il y a une reprise de la croissance, et que les taux d’intérêt nominaux sont assez fortement déterminés par le taux de croissance nominale. Le taux de croissance nominale remontant partout dans le monde, c’est donc une bonne raison de penser que les taux doivent remonter.
En outre, il y a des freins et des problèmes à faire perdurer très longtemps des taux longs extrêmement bas, voire même négatifs. Le premier frein est que les politiques de taux longs très bas peuvent ne pas marcher. Il ne suffit pas d’abaisser les taux pour donner envie aux entreprises et aux ménages d’emprunter. C’était bien le cas en France, en 2014, quand les taux se sont très fortement abaissés. Le crédit n’est pas reparti tout de suite, et ce n’était pas imputable aux banques, qui auraient aimé faire plus de crédits. Il y avait simplement un problème de demande de crédit, parce que tout le monde était dans une sorte de marasme où personne n’avait envie d’emprunter bien davantage. Finalement, fin 2014 et courant 2015, on a connu une croissance de la masse des crédits en France, due à la politique de taux d’intérêt très bas. Ce frein-là n’existe donc plus, puisque l’on a une demande de crédit, à notre avis insuffisante, mais en tout cas de bon niveau.

Parallèlement, a priori, des taux d’intérêt très bas découragent l’épargne. Mais il faut comparer les taux à l’inflation. On a des taux d’intérêt très bas, mais on a également une inflation très basse. Au total, les épargnants n’ont pas été maltraités, en tout cas moins que dans les années où les taux d’intérêt étaient bien plus élevés qu’aujourd’hui mais moins chers que les taux d’inflation. Mais il y a un effet psychologique à avoir des taux d’intérêt très bas. Beaucoup de ménages se disent que s’ils n’arrivent pas à constituer progressivement l’épargne qu’ils souhaitent avoir au moment où ils prendront leur retraite, parce que les intérêts ne sont pas assez élevés pour capitaliser à un niveau suffisant pour atteindre ces montants, ils vont peut-être épargner plus et moins consommer pour se garantir les niveaux qu’ils veulent pour plus tard. Dans ce cas-là, l’effet des taux d’intérêt très bas peut être exactement le contraire de ce que l’on attend en théorie économique traditionnelle. Aujourd’hui, l’effet n’est pas manifeste. On voit bien que les taux d’intérêt très bas n’ont pas non plus accru l’épargne. Mais cet effet pourrait agir tôt ou tard.

Le troisième frein à la politique monétaire des taux très bas est que les effets de richesse, qui sont forts aux États-Unis, sont moins forts en Europe, notamment parce que la composition des portefeuilles financiers des ménages en épargne n’est pas du tout la même. Elle est bien moins assise sur des actions. Elle est davantage composée de monétaire, d’immobilier, etc. Donc, les effets de richesse sont beaucoup moins évidents économétriquement sur l’Europe.

Deux risques sont en outre à prendre en compte. Le premier est de voir des bulles spéculatives renaître. Les taux d’intérêt étant très bas, il est facile d’emprunter pour se porter acheteur sur le marché des actifs patrimoniaux. Ce qui pourrait entraîner le développement de bulles.

Aujourd’hui, et à tout le moins il y a quelques mois, on ne pouvait pas vraiment déceler de bulle. Il n’y a pas de bulle de l’immobilier évidente en Europe. Il n’y a pas non plus de bulle manifeste sur le marché des actions, en tout cas en Europe, même si, aux États-Unis, je ne suis pas tout à fait sûr que certains secteurs ne soient pas déjà surévalués. Ce risque, s’il n’est pas avéré pour l’instant, existe cependant, notamment si une telle situation sur les taux devait se prolonger encore.

On constate en outre que des institutionnels ont du mal à faire face aux obligations de rendement qu’ils peuvent avoir, que ce soient des fonds de retraite, des mutuelles de santé ou des fonds de placement. On voit ainsi clairement s’enclencher des achats d’actifs beaucoup plus risqués que ceux qu’ils prenaient auparavant. Comme tout ce qui présente peu de risque a un rendement quasi négatif, on constate une tendance à aller vers des actifs beaucoup plus risqués. Le prochain retournement de conjoncture et de marché pourrait laisser voir des défauts de crédit et d’obligations. Bref, des bilans plus fragiles.

Il existe enfin un risque sur les banques. On comprend bien qu’il leur faut une pente de taux pour faire de la marge. Pourquoi ? Parce qu’en gros, elles empruntent de l’argent aux déposants à des taux référencés sur des taux courts, et qu’elles prêtent très majoritairement à taux fixes longs. Une baisse des taux, pendant la période de transition, n’est en général pas bonne pour les banques. Mais, après la transition, les banques devraient pouvoir restaurer leurs marges. Si l’on était, avant la phase de transition, à 5 % de taux de crédit en moyenne sur le stock et à 2,50 % de taux sur les dépôts par exemple, et si l’on se retrouve, après transition, réciproquement à 2,50 % et à zéro, le taux de marge de la banque est bien reconstitué. En fait comme aujourd’hui tous les taux longs et les taux courts se rejoignent vers zéro, les taux de crédit sur le stock baissent sans cesse dans les actifs des banques et les taux des dépôts ne peuvent pratiquement plus baisser, puisqu’ils sont pratiquement à zéro, et qu’ils ne peuvent devenir négatifs. Nous sommes devant le phénomène de zero lower bound. Et cela conduit les banques commerciales en France à voir se réduire inexorablement leur taux de marge, donc leurs revenus.

Mais il existe d’autres effets que met en avant la banque centrale, à juste titre. D’après elle, parce que les taux sont bas, le volume de crédit peut rebondir. C’est vrai. Comme je l’ai dit, à partir de fin 2014-2015, c’est bien ce qui s’est passé en France. On a connu un effet volume positif sur les crédits qui a permis de compenser l’effet taux d’intérêt négatif sur les marges nettes d’intérêt des banques commerciales. C’est rigoureusement exact en 2015. En 2015, la moitié des banques commerciales en France ont eu une marge nette d’intérêt qui a légèrement baissé, l’autre qui a légèrement monté, et, au total, les banques ont connu en tant qu’agrégat une marge nette d’intérêt inchangée. Ce n’est plus du tout le cas en 2016. Dans la banque commerciale en France, en 2015, le PNB est effectivement monté de 1,8 %, parce que l’effet volume a compensé l’effet taux, comme nous venons de le voir, et que les commissions ont légèrement monté. Mais en 2016, le PNB a en revanche baissé de 4 %, en moyenne, parce que l’effet volume a été inférieur à l’effet taux d’intérêt qui se cumule, malgré l’évolution des commissions. Même si les taux d’intérêt stagnaient maintenant, ou même s’ils remontaient très légèrement, l’abaissement du taux du stock dû au remboursement naturel des crédits anciens ou aux renégociations, ou encore aux remboursements anticipés, conduirait à un taux sur le stock en baisse.

Les banques commerciales rentrent donc dans des zones très inconfortables. La banque centrale européenne répond, à juste titre, que grâce au fait que les taux d’intérêt sont très bas, ce qui a aussi ravivé un peu l’économie et la croissance française et européenne, le coût du risque de crédit s’est également abaissé. Elle a raison. En 2015, les banques commerciales en France ont connu un coût du risque de crédit qui s’est réduit au total de 12,2 %. En 2016, il s’est réduit de 14,2 %. Aussi, si je prends maintenant la variation du PNB diminuée de la variation du coût de crédit pour analyser l’effet total, qu’observons-nous ? Pour l’ensemble des banques commerciales en France, en 2015, un effet net positif de +3 % ; mais en 2016, un effet net négatif de -3,3 %. Autrement dit, la baisse du coût des crédits, en 2016, n’a pas suffi à compenser la baisse du PNB induite par l’effet taux d’intérêt.

En outre, la baisse du coût du risque ne peut être durable. L’effet du taux d’intérêt du stock de crédit en baisse est quant à lui durable. La baisse du coût du risque n’est pas durable en effet puisqu’il suffirait d’un ralentissement économique pour que ce coût remonte. On ne peut pas parier sur cela pour compenser durablement des PNB plus bas.


 La question qui peut se poser est de savoir si, au fond, cette politique de taux d’intérêt très bas, voire négatifs en Europe, était souhaitable ou pas. Certains économistes disent qu’elle était et est très dangereuse. Je ne partage pas ce jugement. Je pense qu’elle était parfaitement souhaitable, que les effets favorables, comme le dit la BCE à juste titre, ont été largement supérieurs aux risques pris. Il fallait prendre les risques qu’elle a pris, parce que les risques qui auraient existé si elle n’avait pas mené cette politique monétaire auraient été bien supérieurs : déflation, stagnation prolongée, etc.

Où en sommes-nous, aujourd’hui ? D’abord, il faut constater que le renouveau de la croissance un peu partout dans le monde légitime une remontée des taux, comme on l’a dit tout à l’heure. La FED les remonte tranquillement, avec cependant des nouvelles incertitudes sur la politique de Donald Trump et ses conséquences possibles sur la conjoncture américaine. Le dollar est monté, mais il est en train de rebaisser. On voit bien que les marchés sont incertains quant à la réussite de la politique Trump ou, au contraire, quant aux problèmes qu’elle pourrait engendrer. Et puis, la FED est de plus en plus sensible, à juste titre me semble-t-il, à l’effet d’une remontée des taux aux États-Unis sur les pays émergents. D’une certaine manière, c’est la Fed qui fait la politique monétaire des pays émergents qui ont très souvent des monnaies liées au dollar. On voit bien que si la FED remonte trop vite ses taux d’intérêt, elle va en partie couper le financement des pays émergents. C’est un effet classique qui fait que quand les taux d’intérêt sont très faibles aux États-Unis, les acteurs y empruntent des dollars pour les placer dans les pays émergents, qui ont des taux de croissance bien supérieurs, donc des taux d’intérêt bien supérieurs, afin de jouer ainsi un portage très favorable. Si les taux remontent aux États-Unis, l’argent va être retiré des pays émergents pour revenir aux États-Unis. On peut ainsi créer des crises profondes dans les pays émergents, comme on l’a vu, il y a un peu plus d’un an, quand la FED avait remonté, ou menacé de remonter ses taux. Donc, la FED va être prudente dans la remontée de ses taux, j’en suis persuadé, étant bien consciente de ces deux phénomènes-là.
Quant à la BCE, je pense qu’elle comprend fort bien les enjeux, et qu’elle a manifestement bien agi jusqu’alors. Elle doit néanmoins faire face à plusieurs phénomènes nouveaux. Le premier est que l’effet des taux bas commence à s’estomper, voire à devenir dangereux, comme dit précédemment. J’ai pris l’exemple de la France, mais c’est également vrai ailleurs, et les banques françaises sont parmi les plus solvables. Elles sont en excellente santé par rapport à l’Allemagne ou à l’Italie. Mais vous voyez que même les banques françaises, dans leur activité de banque commerciale en France, sont touchées.
Dans le même temps, n’oublions pas que l’on demande aux banques d’augmenter leurs ratios de solvabilité de façon très importante. Grosso modo, depuis Bâle III, il leur a été demandé de multiplier par deux leurs capitaux propres dits « durs ». Or il est difficile de demander aux banques d’augmenter beaucoup leurs ratios de solvabilité, donc leurs capitaux propres, et en même temps de faire baisser leurs résultats. Il ne faudrait pas par exemple que la croissance reparte un peu plus fort et que les banques soient prises au piège, incapables de suivre suffisamment le surcroît de demande de crédit qui en résulterait.
Au fond, on comprend bien que la BCE a aussi initié cette politique -même si elle ne le dit pas- pour faciliter les trajectoires de solvabilité budgétaire des différents pays de la zone euro, ainsi que nous l’avons noté. En réalité, elle a acheté du temps. Le « deal » de la BCE est clair. Elle mène une politique de taux extrêmement bas, en attendant deux choses des Etats. La première est qu’ils conduisent les réformes structurelles nécessaires pour augmenter leur potentiel de croissance et diminuer leur déficit structurel, faisant ainsi en sorte de faciliter leur trajectoire budgétaire future en protégeant leur solvabilité. La deuxième est qu’ils constituent les conditions institutionnelles d’une zone euro viable. On sait aujourd’hui que l’incomplétude de la zone euro est patente en termes d’arrangements institutionnels,
c’est-à-dire de capacité à faire fonctionner la zone sans que ce soit obligatoirement toujours aux pays qui vont le moins bien de subir seuls le coût de l’ajustement nécessaire, avec les conséquences sur les votes que l’on connaît. La BCE dit aux pays membres: « Organisez rapidement un peu mieux la zone euro ».
Le problème auquel on fait face aujourd’hui, et qui me conduit à me poser des questions quant à la remontée des taux en zone euro, est que les pays qui devaient le faire n’ont pas fait ce travail. Les politiques structurelles n’ont quasiment pas été menées là où elles étaient nécessaires. En Italie, cela a commencé, mais il y a eu un arrêt avec l’échec du referendum. En France, on n’a pas fait grand-chose. Il n’y aura pas de capacité à sortir des zones dangereuses de solvabilité budgétaire des États concernés, s’il n’y a pas, d’un côté, ces efforts de politiques structurelles et, de l’autre, l’achèvement d’une zone euro plus complète, mieux régulée, qui fonctionne mieux, c’est-à-dire moins asymétriquement.
Or, les Allemands critiquent très sévèrement la politique monétaire de la BCE qui ne leur est pas forcément favorable. Ils ont un taux de croissance plus élevé ; ils n’ont donc pas besoin de taux d’intérêt si bas. De plus ces taux abaissent le rendement de l’épargne des Allemands qui, comme on le sait, ont une population beaucoup plus âgée. Ils ont donc besoin d’un rendement de leur épargne plus élevé, qui plus est avec des investisseurs institutionnels qui avaient vendu des rentes à taux fixes par le passé.
La tête de la BCE ne se détourne pas de sa politique. Les Allemands, quant à eux, sont obsédés par la question de l’aléa moral, dans la mesure où ils ne veulent pas des éléments de solidarité nécessaires à la zone Euro. Ils refusent en effet, on peut les comprendre, d’être les seuls à payer pour tout le monde, si les autres ne font pas leurs réformes structurelles, se retrouvant ainsi tôt ou tard en situation d’être durablement dépendants de l’Allemagne.
La sortie des politiques de taux bas est donc conditionnée par le fait que la France notamment mène des réformes structurelles qui rassurent les Allemands, lesquels, de ce fait, accepteraient un arrangement institutionnel bien meilleur pour la conduite de la zone euro, avec des éléments de solidarité intra-zone, pour que le coût des ajustements ne pèse pas uniquement sur les pays les plus faibles.

Voilà où nous en sommes. La banque centrale européenne, me semble-t-il, va sortir des taux courts négatifs tôt ou tard, parce que cette position devient très difficilement tenable aujourd’hui. Mais une sortie d’une situation de taux très bas dépendra fondamentalement de la capacité des États à faire leurs propres réformes et à assumer simultanément les réformes de la zone euro nécessaires à son avenir. En 2019, quand s’arrêtera le mandat de Mario Draghi, tout dépendra de la force relative des pays et de leurs capacités respectives à être entendus,
c’est-à-dire à avoir enclenché les politiques structurelles suffisantes pour être crédibles. Cette crédibilité des grands Etats conditionne la possibilité d’accroître la viabilité de la zone Euro, en développant quelques éléments de fédéralisme, tels qu’une mutualisation d’une partie des dettes souveraines ou des éléments de transferts fiscaux, comme il en existe entre les Etats aux Etats-Unis. Pour soutenir transitoirement ceux qui connaissent un choc asymétrique, sans leur demander systématiquement de n’agir que par des mesures d’austérité.

C’est ce qui permettrait de monter les taux avec beaucoup plus d’aisance. Si on les monte significativement sans avoir fait cela, on accroît le risque intrinsèque de la zone euro. Si on ne les monte pas, les risques d’une politique de taux très bas décrits précédemment deviendront de plus en plus forts, alors même que la croissance repart, et sans doute aussi un peu l’inflation.
Sans penser à une remontée significative, le plus probable me semble-t-il est que l’on connaîtra a minima, dès fin 2017 ou début 2018, un accroissement modéré des taux. Les taux courts pourraient revenir par la suite de leur territoire négatif vers zéro. Et les taux longs pourraient être conduits par la banque centrale vers la neutralité, soit, mais très progressivement, entre 2 et 2,5%. Cela serait compatible avec le niveau de croissance et d’inflation que l’on peut anticiper aujourd’hui. Cette remontée modérée cessera de faciliter le désendettement des Etats, sans les faire entrer pour autant dans un effet boule de neige.

Catégories
Banque

« La banque de réseau augmentée du digital », publié dans Revue Banque, mai 2016

La révolution digitale a transformé la relation qu’entretenaient jusqu’à présent les clients particuliers avec leur banque. Elle nous oblige à réinventer notre métier, tout en nous appuyant sur les invariants de la demande de banque des clients, comme sur nos atouts structurels.

Le digital engendre pour chacun un nouveau rapport au monde, une nouvelle façon de penser le temps et l’espace, une autre manière de concevoir l’information, les connaissances et l’autonomie d’action. De fait, il induit une série de révolutions en chaîne dans notre vie quotidienne, comme dans l’entreprise. La banque, et plus spécifiquement la banque commerciale, n’échappe pas à ces bouleversements.

Les clients utilisent de plus en plus Internet et toutes ses applications et se déplacent de moins en moins en agence : la fréquentation des agences a été divisée par trois entre 2008 et aujourd’hui. Toutefois, la baisse s’est essentiellement faite sur les sujets de banque au quotidien : les opérations courantes comme les virements de compte à compte, le suivi des opérations, etc. Les rendez-vous en agence n’ont pour leur part que très légèrement baissé et ont été plus que compensés par des rendez-vous téléphoniques. Les rendez-vous à valeur ajoutée ont augmenté, ce qui nous satisfait : nous préférons que nos commerciaux conseillent leurs clients plutôt que d’être cantonnés à des tâches sans valeur ajoutée telle que la remise de chéquiers ou la gestion de l’argent liquide. Nous nous réjouissons donc que nos clients utilisent les outils à leur disposition et gagnent en autonomie, ce qui permet à nos conseillers de se consacrer à une relation créatrice de valeur, pour le client comme pour la banque.

Adaptation au nouveau monde

Mais cette révolution technologique pousse très légitimement les clients à être de plus en plus exigeants vis-à-vis de leur banque. Si les banques ne s’adaptent pas, elles se feront dépasser par des banques en ligne qui apportent souvent aujourd’hui plus de praticité à moindre coût – mais souvent sans offrir de conseiller attitré – ou elles disparaîtront, le cas échéant, au profit de modèles disruptifs.

À la condition de poursuivre sa mue et son adaptation au nouveau monde, d’intégrer toute la « révolution client », la banque de réseau à valeur ajoutée pourra probablement rester au cœur de la relation bancaire. Pour cela, deux types d’évolutions à forte valeur ajoutée doivent être approfondis.

Nous devons proposer une banque plus pratique, ce que nous sommes en train de réaliser, grâce à l’intégration progressive du digital et à la révision des process. Avec la révolution technologique, de nombreuses démarches se font à distance ; plus personne ne supporte de faire la queue, d’attendre, de se déplacer sans nécessité. Les banques n’étaient pas jusque-là des exemples de praticité. Dans le passé, par exemple, nos conseillers n’étaient pas faciles à joindre. Depuis quelques années maintenant, la configuration a déjà changé : les clients de la BRED peuvent joindre directement leur conseiller, par téléphone ou par mail, sans se perdre dans les arcanes des serveurs interactifs de plates-formes téléphoniques anonymes. Nous devons également bien prendre en charge les réclamations ou problèmes éventuels des clients, ce qui implique des évolutions dans nos pratiques.

Simplicité et praticité

Améliorer l’« expérience client » est en effet fondamental. Le parcours client doit être fluide, efficace et transparent. Par exemple, l’ouverture d’un compte, très simple dans une banque en ligne, est dorénavant aussi simple chez nous. Un autre exemple, sensible pour nos clients, est la souscription d’un crédit immobilier : alors que le parcours pour obtenir un prêt immobilier se réalise déjà dans des délais très courts, très prochainement, nos clients seront informés de l’avancée de leur dossier à chaque étape, par SMS ou par mail, selon leur choix. Ils pourront consulter leur dossier numérique et, le cas échéant, le compléter en ajoutant les pièces manquantes directement en ligne. Tout cela grâce au numérique, qui permet d’améliorer considérablement la simplicité et la praticité pour le client.

Il est également essentiel de prendre l’initiative vis-à-vis de nos clients. La proactivité que nous mettons en œuvre est facteur de succès. Nous sommes très bien reçus par nos clients si nous les appelons proactivement, et de façon intelligente, pour leur parler de leurs besoins et de leurs projets. La vente à distance a également son importance ; elle nécessite de s’adapter finement aux comportements et caractéristiques de chaque client. Selon son mode de vie et ses problématiques, mais aussi selon le moment où il désire s’adresser à sa banque, un client peut vouloir se déplacer à l’agence, pour aborder un sujet en relation directe avec son conseiller, ou bien traiter à distance, par mail ou par téléphone, avec ce même conseiller ; une fois que le sujet et la vente sont traités, la banque peut lui adresser un contrat, sous format digital ou par la Poste, à sa préférence. La vente à distance est donc une facilité que nos clients apprécient.

Qualité du conseil

Le deuxième grand sujet est la qualité du conseil. Le digital a en effet augmenté le besoin en compétence du conseiller, l’accès à l’information et à la comparaison étant banalisé par Internet. Il est évident que 100 % de nos conseillers ne seront pas compétents sur 100 % de la gamme, mais 100 % de nos conseillers sont spécialisés en fonction des segments de clientèles qu’ils suivent, pour être capables de leur apporter la compétence voulue en fonction des besoins spécifiques rencontrés. Nous poursuivons donc la segmentation en fonction des profils de clientèles, pour positionner les bons conseillers en face des bons clients. Évidemment, la gamme proposée n’est pas non plus strictement identique en fonction du type de clientèle. Les projets de vie, grands ou petits, peuvent nécessiter de l’épargne, du crédit ou de l’assurance. Si cela est traité séparément, le client a le sentiment d’être cloisonné ; traité globalement, nous lui apportons valeur ajoutée et confort.

La qualité du conseil est en outre grandement améliorée par le temps que passe un conseiller à suivre les mêmes clients. Le digital a là aussi une importance déterminante : les banques possèdent une richesse de données exceptionnelle par rapport à d’autres distributeurs et, bien travaillées, elles permettent de combiner la compétence et la relation de proximité forte de leurs conseillers avec la puissance du Big Data et de l’intelligence artificielle, pour répondre le mieux possible aux projets de vie des clients. Comme nous le disons aux Banques Populaires, c’est proposer à nos clients « le meilleur de l’humain et du digital ». C’est ce que nous appelons aussi la banque sans distance, une banque qui abolit les distances physiques et temporelles, grâce à la meilleure combinaison des technologies et de l’humain.

Personnalisation

Les FinTech peuvent-elles à leur tour venir menacer les modèles de banque, qu’elles soient à réseau, augmentées des nouvelles technologies, ou en ligne ? Cette question ne peut être sous-estimée. Grâce à la généralisation des technologies mobiles et au développement de la capacité d’exploitation des gisements de données, les FinTech pourraient en effet attaquer différents segments de marché des services financiers : des moyens de paiement au crédit, en passant par l’épargne ou l’affacturage. Cela produira-t-il une véritable « désagrégation » de la relation bancaire, au profit de sociétés qui capteraient, chacune, une partie de la chaîne de valeur ? Ce risque est encore accru par la directive européenne DSP2 qui ouvre à tous le marché des services financiers, notamment aux agrégateurs, leur permettant alors d’agir en tant qu’opérateurs. Pour l’instant, ils n’ont pas désintermédié la banque qui reste l’opérateur et le lieu de la relation globale avec le client. Ils se contentent d’être de simples agrégateurs, capables de rassembler tous les comptes d’un client qui dispose de différentes banques, pour lui donner à tout moment un récapitulatif global de ceux-ci. Demain, ils auront en outre la possibilité de réaliser des opérations de virements de compte à compte, voire même de leur pousser des propositions commerciales en provenance de tiers. Les clients n’auraient alors plus grande nécessité d’aller sur leurs sites bancaires, engendrant ainsi un risque accru de désintermédiation. Ce qui implique cependant d’importants enjeux de sécurité, car les agrégateurs doivent pouvoir disposer des codes d’accès personnels pour obtenir les informations du compte bancaire ou pouvoir effectuer des opérations.

La question de l’après se pose de façon cruciale, car l’on pourrait connaître une généralisation de services fondés sur l’intelligence artificielle, les fameux « robots conversationnels », dont l’objectif serait de proposer automatiquement des produits aux clients avec une pertinence certaine, puisque fondée sur l’analyse de tous les comptes des clients. Nous pourrions ainsi imaginer qu’un agrégateur, associé à un outil d’intelligence artificielle et doté de la capacité d’envoyer aux clients des SMS et des mails avec des propositions adaptées, puisse devenir un substitut, beaucoup plus efficient même, au conseiller personnel.

Mais les banques, comme les assureurs, les mutuelles de santé, etc., sont quasiment toutes en train d’acquérir ou de fabriquer des agrégateurs. La surabondance d’agrégateurs pourrait donc ne pas produire le résultat redouté. La réponse est peut-être dans la capacité de chaque banque de disposer de son agrégateur et de l’associer à un modèle de relation clients encore plus vertueux. Car si nous valorisons et améliorons encore le modèle de relation global, il n’est pas certain que les clients aient intérêt à « éclater » davantage leur relation bancaire. Les particuliers reçoivent d’ailleurs déjà un nombre important de mails et/ou SMS publicitaires qui les sollicitent en permanence, malgré le développement de systèmes permettant de les bloquer. Face à la surabondance future de ces sollicitations et à la saturation qui s’ensuivra, l’échange téléphonique avec son conseiller attitré, ajouté aux envois de SMS et mails pertinents par la banque, pourra représenter une valeur ajoutée nettement plus forte, précisément parce qu’il se différenciera positivement, par une véritable personnalisation de la relation et l’apport spécifique dudit conseiller. D’ores et déjà, sur l’ensemble des propositions commerciales réalisées par SMS et mails envoyés à nos clients, le taux de transformation en vente est multiplié par dix lorsque le conseiller attitré du client appelle par la suite pour transformer l’essai.

Par ailleurs, les FinTech n’auront pas toutes les capacités de se développer par elles-mêmes concurrentiellement à certaines activités des banques. Elles commencent ainsi à passer à une relation de coopération qui peut prendre la forme de rachats de certaines Fintech par des banques ou de partenariat relatifs à l’intégration de certains aspects de leurs innovations dans l’offre bancaire.

Complémentarité des approches digitale et physique

Il est très vraisemblable que, comme dans tous les autres secteurs de la distribution, le modèle dominant soit in fine celui d’une complémentarité intime des approches digitales, peu nombreuses à être rentables dans le monde lorsqu’elles sont le seul canal utilisé, et des modèles physiques qui, s’ils devaient rester purs, seraient certainement condamnés à disparaître. On observe déjà d’ailleurs dans la grande distribution une convergence des modèles vers le mix humain-digital. Amazon annonçait récemment, par exemple, la création de 400 librairies physiques. Ajoutons que, dans la banque, qui plus est, nous traitons de l’argent et des projets de vie et d’entreprise, ce qui nécessite encore davantage de confiance et de relation de long terme. Nous traitons effectivement de sujets à forte charge émotionnelle et impliquant le temps long, la sécurité, le patrimoine, la transmission… et probablement un contact humain.

Bien entendu, plusieurs approches peuvent coexister, mais si nous évoluons vite et bien, le modèle dominant pourra rester celui de la banque, non pas classique ou traditionnelle, mais de réseau, augmentée du digital.

Lire l’article en PDF –  Revue Banque – La banque de réseau augmentée du digital – mai 2016