Novembre 2012
Les billets sont listés à droite. Pour voir l'ensemble du fil de novembre, cliquez sur Toutes les Pages
Pour changer de mois, sélectionnez à gauche un mois de parution
25-11-2012. Smart cities
Mercredi dernier (21-11-2012), dans le cadre du conseil scientifique de GDF-Suez, j'ai présenté une réflexion sur le thème de la "ville intelligente" (smart city), à laquelle ont également contribué Dominique Bidou (consultant en développement durable) et Koenraad Debackere (Université catholique de Louvain). Voici schématiquement ce que nous avons commmuniqué lors du Conseil et qui ne présente aucun caractère de confidentialité.
1. Définition. Le concept de "ville intelligente" exprime une idée simple mais qui mérite d'être rappelée : celle d'exploiter les ressources informationnelles diverses et variées qui sont disponibles dans la ville, ressources d'ailleurs de plus en plus diverses et variées avec l'avènement du phénomène Big Data et la prolifération des capteurs et senseurs de toute sorte, dans le but d'améliorer l'organisation de la ville et la qualité de vie de ses citoyens. En bref, il s'agit de mieux utiliser l'information afin de mieux vivre dans la cité.
2. Verticalité et transversalité. L'approche "smart" se rapporte à toutes les composantes de la vie urbaine. On parle ainsi "d'environnement intelligent", lorsqu'il s'agit d'optimiser la gestion de l'énergie, de l'eau ou des déchets, de rendre les bâtiments écologiquement plus performants. On parle de "mobilité intelligente", lorsqu'il s'agit de l'organisation des transports en commun, de la fluidité du trafic automobile ou de l'occupation des places de parking. On parle de "gouvernance intelligente", lorsqu'il s'agit de l'accès aux services administratifs, de l'exercice de la citoyenneté, ou encore de l'information apportée aux habitants et aux visiteurs. On parle "d'économie intelligente", lorsqu'il s'agit de faciliter l'implantation d'industries ou de développer la fréquentation des commerces à l'aide des TIC (technologies de l'information et de la communication). On parle enfin de "vie sociale intelligente" lorsqu'il s'agit de santé, d'éducation, de culture, de loisirs, de tourisme, de sécurité, etc.. En bref, tout ou presque, dans la ville a peu ou prou vocation à devenir "plus intelligent" et l'approche smart se fixe un double objectif : faire mieux dans chacune des dimensions évoquées plus haut et, aussi, mieux coordonner ces différentes dimensions entre elles afin de faire mieux globalement ! Pour être vraiment smart, il faut donc agir à la fois verticalement et transversalement.
3. Quoi et où ? Le mouvement smart cities est aujourd'hui en plein essor, les projets et les réalisations se multiplient à travers le monde, sous des formes toutefois très contrastées. Nous proposons de distinguer quatre modèles.
- "Born smart" : en Asie et au Moyen-Orient, des nouvelles cités ou des nouveaux quartiers d'affaires sont créés de toute pièce, tels New Songdo en Corée du Sud ou encore Masdar dans les Émirats. Ces "artifices urbains" ont été construits au service d'une fiction épurée, l'homme écologique, mais jusqu'ici sans homme réel qui vive ! Seront-ils fréquentables, seront-ils habitables ?
- "Getting smarter" : en Amérique du nord et en Europe, plutôt que bâtir à partir de rien, l'approche dominante consiste à rendre plus intelligentes des villes déjà existantes, en particulier des villes historiques comme New York, Amsterdam, Londres, Barcelone ou Paris (dans la perspective du Grand Paris). Principale question posée : comment concilier rationalisation d'une ville et maintien de sa spécificité ?
- "Big, fast and smart" : en Chine, en Inde ou en Amérique latine, une forte croissance démographique et économique entraîne un développement explosif des zones urbaines. Comment l'intelligence peut-elle aider à maîtriser un développement aussi rapide, comment se manifeste-t-elle à une aussi grande échelle ?
- "Smart everywhere" : pourquoi considérer seulement les villes ? L'empreinte d'une ville n'est pas entièrement circonscrite par ses murs d'enceinte, elle s'étend à sa zone d'influence. Si la ville gagne en intelligence, alors ce surcroît de matière grise doit ausssi bénéficier à sa prériphérie et sa zone d'influence... Et au-delà : pourquoi pas, en effet, des villages intelligents, des campagnes intelligentes, des parcs naturels intelligent ? Si être smart devient un must, on ne peut accepter durablement une "fracture de l'intelligence"... pas davantage qu'on accepte aujourd'hui la fracture numérique.
4. Segmentation stratégique. Les quatre "modèles" de la typologie précédente présentent à l'évidence des caractéristiques très différentes. Les enjeux techniques, organisationnels, économiques ou sociétaux que soulève une approche "smart", ainsi que les besoins potentiels, ne sont clairement pas les mêmes, selon qu'il s'agit d'éco-villes aseptisées, de cités historiques au caractère marqué, de villes géantes et pervasives, ou de zones de densité moyenne ou faible. Pour un grand acteur industriel du secteur de l'énergie et de l'environnement souhaitant s'impliquer, la première étape consiste par conséquent à mener une segmentation stratégique de ce "marché" diversifié de "l'intelligence urbaine".
- Du côté de la "demande", quelles sont les principaux défis et priorités essentielles de chaque segment, s'agissant des diférentes "filières" verticales de l'approche smart (énergie, environnement, mobilité, etc.) et s'agissant aussi de l'intégration horizontale de ces filières.
- Du côté de "l'offre", quelles sont, pour chacun des segments, les opportunités les plus prometteuses, quel est le portefeuille des compétences, des développements et des outils nécessaires, quels sont les atouts internes, quelles doivent être les acquisitions externes, quels sont les partenariats les plus opportuns avec d'autres parties prenantes à ce "marché", notamment les acteurs du secteur des TIC ?
5. Les impasses. Trois dérives, très justement signalées par Philippe Aigrain et Daniel Kaplan, co-éditeurs de l'ouvrage collectif "Internet peut-il casser des briques" (2012), doivent être évitées par les concepteurs et acteurs de la ville intelligente.
- La "servicisation" : un projet de ville intelligente ne doit pas uniquement s'adresser aux consommateurs qui arpentent la ville, mais aussi aux personnes qui l'habitent, aux "urbains" ! Le projet ne doit pas seulement proposer une batterie de "super-applications" permises par la réalité augmentée et dont la vocation serait purement économique ; il doit aussi et surtout fournir des outils utiles aux individus agissant en tant que citoyens, êtres sociaux, résidents de quartier, etc.
- La "déshumanisation" : un projet de ville intelligente ne doit pas "oublier" le facteur humain ! Certes, il s'agit bien d'améliorer, de rationaliser, d'optimiser, mais ces objectifs d'ingénieur et de planificateur, aussi louables soient-ils, ne sont que des buts intermédiaires au service d'un but premier : augmenter le bien-être dans une perspective durable, améliorer la qualité de vie, enrichir la dimension humaine et sociale du "bien vivre ensemble", celle qui fait tout l'agrément d'une ville pour ses habitants et ses visiteurs.
- "L'angélisme" : un projet de ville intelligente peut très bien à la fois se montrer très séduisant sur le papier et se heurter à des résistances insurmontables sur le terrain. Entre la théorie et la pratique... il y a le pouvoir ! Or les rapports de pouvoir entre les acteurs de la ville sont transformés lorsque l'information est redistribuée, lorsque des bases de données sont ouvertes, lorsque de nouveaux accès sont créés. Les concepteurs de la ville intelligente ne doivent pas dénier ces mutations mais ils doivent au contraire les anticiper et s'appuyer sur elles.
Développons successivement ces trois aspects.
6. Le service n'est pas tout ! Une ville est certes une unité économique, mais elle est surtout le lieu d'expression d'enjeux sociétaux très sensibles : la cohésion sociale, la cohabitation entre ethnies, la souffrance sociale, les guettos, les cités, l'insécurité, le désintérêt pour la démocratie, la perte de vie culturelle, la disparition des magasins et des services publics dans cerains quartiers, etc. Un projet smart, pour être lui-meme smart (!), doit donc considérer la ville sous sa dimension émotionnelle autant que sous sa dimension rationnelle. Les smart grids qui innerveront les smart cities devront aussi contribuer à créer de nouvelles connexions sociales, susciter de nouvelles communautés, tisser des solidarités nouvelles, engendrer des confrontations nouvelles, etc. Or les TIC, technologies porteuses du smart, sont précisément les instruments adaptés pour fournir aux habitants-citoyens des données ouvertes (open data) et des plateformes en libre accès, qui leur permettront de "faire par eux-mêmes", c'est-à-dire d'animer, de manière décentralisée auto-organisée et collaborative, un processus "d'innovation participative".
Une ville véritablement intelligente est ainsi une ville dont les habitants se sont en partie "approprié" l'infostructure ; plus crûment dit, dont les habitants ont "piraté" cette infostructure ! Sakia Sassen, professeur à l'univesité Columbia, écrit fort joliment à ce sujet : "We must work at urbanizing technologies rather than use technologies that deurbanize the city. Technologies must be adaptable and the city must be hackable." Ajoutons ce jeu de mots parlant : les technologies "sans contact" contribueront à renforcer les contacts dans la ville ! En bref, "l'urbain" dans la ville ne doit pas être perçu comme un frein dommageable à la pénétration technologique car il est tout le contraire : il est le moteur du développement des villes intelligentes... pour peu toutefois que la technologie ne soit pas imposée à l'urbain et que l'urbain se saisisse de la technologie !
7. L'optimisation n'est pas tout ! La force d'une ville réside autant dans sa personnalité et dans sa spécificité que dans l'efficacité et l'optimisation de sa gestion. En conséquence, se focaliser exclusivement sur le dernier aspect risque de s'avérer rapidement contre-productif, en dégradadant le premier aspect : une ville parfaitement optimisée perdrait son charme propre ; un Montpellier optimal ne se distiguerait plus d'un Chateauroux optimal ! Un ville, pour mériter le qualificatif "intelligente", ne saurait devenir totalement "fonctionnelle" : même dans le cas d'une ville entièrement nouvelle comme Songdo ou Masdar, on ne conçoit pas qu'elle puisse être entièrement planifiée par avance puis automatiquement pilotée par quelque Big Brother, dictateur tout puissant placé aux commandes d'un poste central d'opérations. Une ville n'est pas un pur système cybernétique et, dès lors que demeurent quelques degrés de liberté, il est souhaitable que le maire reste un humain, qu'il ne cède pas sa place à un robot ! Les degrés de liberté s'expriment sous forme d'arbitrages.
- Premier arbitrage, la ville doit certes être "efficace", ce qui réclame de l'optimisation et de l'intégration, mais elle doit aussi être "résiliente", ce qui exige au contraire de la redondance et de la décentralisation. Dans le smart, la pérennité compte autant que la performance !
- Deuxième arbitrage, la ville doit certes être "stable", ce qui plaide pour l'exploitation dans la durée de systèmes techniques et informatiques pré-testés, éprouvés et donc peu évolutifs ; mais elle doit aussi être "innovante", ce qui appelle au contraire l'exploration dynamique de solutions originales et adaptatives. Dans le smart, l'agilité compte autant que l'intelligence !
- Troisième arbitrage (et non pas le moindre !), la ville doit certes être "vigilante", ce qui implique la mise en place de nombreux instruments d'observation, de mesure, de collecte et traitement de données ; mais elle doit être "respectueuse", ce qui impose une "neutralité bienveillante", une non-ingérence dans la vie privée des citoyens. Les caméras qui contôlent de trafic ou les compteurs intelligents sont des yeux très indiscrets ! Dans une démarche smart, la dimension éthique est donc fondamentale, afin que soient respectés les droits fondamentaux du citoyen, notamment en termes de protection de la vie privée et de sécurité des données personnelles... car ces droits sont très loin d'être "pré-inscrits" dans la technologie.
8. Les enjeux de pouvoir comptent ! Le jeu des responsabilités respectives et des positions relatives des différents acteurs de la ville - politiques, opérateurs de grands réseaux techniques, opérateurs de télécommunication, sociétés de service, industries et commerces locaux, citoyens, etc. - est remodelé (voire bouleversé) dans la ville intelligente, parce que le système de distribution et de circulation des informations y est changé. Si la vision caricaturale de l'optimisation pure était poussée jusqu'à l'extrême, alors le pouvoir serait totalement transféré du politique vers le technique et le nouveau maître de la cité serait quelque opérateur industriel. Mais ce scénario est très invraisemblable, pour deux bonnes raisons : d'une part, aucun acteur technique ne serait en mesure de maîtriser la complexité et de supporter le coût d'un système urbain entièrement globalisé ; d'autre part, l'appétence des citoyens pour la subsidiarité, la transversalité et la proximité créerait une telle force centrifuge qu'une organisation parfaitement centralisée serait fort heureusement insoutenable.
Quel est alors le scénario le plus vraisemblable ? C'est également le plus souhaitable : il consiste en la coopération créative d'entrepreneurs, de structures associatives, de communautés d'intérêt, de médias, etc., partageant une plateforme technique commune, et aussi des données et des logiciels, afin de réaliser des projets locaux créateurs de lien social ; ce que certains (comme Michèle Debonneuil) nomment "l'économie quaternaire" : aider des personnes âgées ou malades, échanger des objets et des services entre voisins, recréer des points de contact là où ils ont disparu, ressusciter une vie de quartier là où elle est menacée. En résumé, un scénario de "responsabilisation" des citoyens, de "prise en main par la base" (empowerment of the base), dont l'avènement repose crucialement sur l'ouverture des données, l'ouverture des réseaux, l'ouverture des applications, l'accès à des espaces de co-production, la formation du plus grand nombre à l'utilisation des TIC.
À défaut de développer cette dimension d'ouverture et à force de ne songer qu'à l'optimisation technique, on risquerait fort un cuisant échec, ainsi que l'exprime très fortement Daniel Kaplan (Fédération Internet Nouvelle Génération, FING) : "En négligeant de manière plus ou moins consciente la question du pouvoir, les projets smart nous font courir le risque de faire des réponses techniques les dernières béquilles sur lesquelles un modèle de développement à bout de souffle continue de s'appuyer pour ne surtout pas changer !"
9. Conclusion. De cette réflexion, il ressort principalement que, dans les projets smart, l'urbain et l'humain ne sont pas accessoires mais essentiels. Les systèmes techniques sont à leur service, et non pas l'inverse. La démarche smart doit donc se montrer "human-centric" et non pas "system-centric". Pour les grands acteurs industriels concernés cela comporte plusieurs conséquences importantes :
- ne pas agir verticalement dans les limites de son seul cœur de métier, mais agir transversalement dans le cadre de partenariats, de manière à embrasser les différentes composantes de la vie urbaine ;
- entreprendre une recherche sociale, mener des expérimentations et conduire des enquêtes de terrain, afin de mieux cerner la nature des "besoins", en se rappelant que la meilleure façon de savoir ce que veulent les gens n'est pas de le leur demander mais d'observer ce qu'ils font, une fois placés en situation !
- communiquer sur les projets et les réalisations en mettant en avant les valeurs sociétales du smart : "relier", "réunir", "vivre ensemble" sont des termes plus attractifs que "optimiser", "rationaliiser" ou même "rendre la planète plus durable" !
Dans ce dernier aspect, celui de la communication autour du smart, réside sans doute une des clés du succès de la démarche. Car, dans leur quête d'un bien-être accru, les individus ne raisonnent pas, pour la plupart, comme des économistes. Pour eux, maximiser le bien-être ne se réduit pas à privilégier la rationalité et rechercher l'efficience. Dans leur esprit, il s'agit plutôt de devenir plus "heureux", d'accéder à un plus grand "bonheur", quel que soient le sens multivoque donné à ces termes vagues. Allez, faites maintenant votre auto-analyse ! Dans quel état psychologique préférez-vous personnellement vous trouver ?
- Option 1 : vous sentir coupable de de pas être encore assez rationnel, assez "durable", assez smart.
- Option 2 : vous sentir enthousiaste à l'idée de devenir plus proche des autres, plus utile à la collectivité, plus impliqué dans des initiatives locales innovantes.
Gageons que vous n'avez pas majoritairement sélectionné l'option 1 ! Et pourtant, beaucoup de projets smart sont conçus et sont mis en œuvre exactement comme si vous aviez laisssé de côté l'option 2 ! Les considérants de l'option 1 sont évidemment très importants pour l'avenir de l'humanité, mais quitte à faire preuve d'un certain cynisme, ils seront sans doute plus facilement atteints si les considérants de l'option 2 ne sont pas négligés : un homme "heureux" acceptera en effet plus aisément de se montrer "rationnel" !
24-11-2012. Les avis d'un ami
1) Contrition
Suis-je donc le paon fat, vaniteux et sufffisant de cette toile de Cucu (alias Christophe Curien) ? Voici ce que m'a écrit hier à ce sujet, avec la bienveilllante sincérité qui lui est coutumière, un ami avec lequel nous nous disons tout et qui me veut (vraiment) du bien.
"Je suis allé voir ton site, d'une part, et d'autre part, je lis en ce moment les oeuvres (c'est long d'ailleurs) de Thérèse d'Avila (ah! la Pléiade, Thérèse et Jean de la Croix, dont les poèmes sont du Lorca), et je me dis que les oeuvres de la Madre sont comme un site web: ma vie (Le Livre de la vie), mes oeuvres (Le Livre des fondations) et ma vie intérieure (Le Château intérieur). La comparaison entre ton site et le sien est édifiante, sur le ton et sur le fond. Sur le fond: il manque au tien la vie intérieure ou ce qui en tient lieu, de nos jours ; sur le ton, il manque l'humilité, peut-être hypocrite mais en tout cas prudente. Il ne faut pas irriter l'archevêque de Tolède, qui a l'allumette facile. Il est vrai que l'Inquisition au milieu du 16ème en Espagne était plus à craindre que le ridicule au début du 20ème. Mais quand même... Le ton est 'je suis indigne de vous faire perdre votre temps...' et non 'regardez comme je suis intelligent...' Ce n'est pas la vanité que je critique mais le ton insupportable de suffisance qui déprime le lecteur (et t'en fait perdre sans doute)."
Avant, je me serais certainement cherché quelque excuse... Mais ça, c'était avant ! Avant que, moi aussi, je me sois plongé dans les écrits de la Sainte. En voici un extrait pertinent. Le chemin de la perfection, Chapitre quinzième, Du grand bien que c'est de ne point s'excuser, encore que l'on soit repris sans sujet.
"Ayant dessein de vous exhorter maintenant à pratiquer une vertu d'un tel merite qu'est celle de ne s'excuser jamais, j'avouë que c'est avec une grande confusion d'avoir si mal pratiqué moy-mesme ce que je me trouve obligée d'enseigner aux autres : parce qu'il est vray que je m'imagine toûjours d'avoir quelque raison de croire que je fais mieux de m'excuser. Ce n' est pas que cela ne soit permis en de certaines rencontres, et que ce ne fust mesme une faute d'y manquer. Mais je n'ay pas la discretion, ou pour mieux dire l'humilité qui me seroit necessaire pour faire ce discernement. Car c'est sans doute une action de fort grande humilité et imiter nostre seigneur de se voir condamner sans avoir tort et de se taire. Je vous prie donc de tout mon coeur de vous y appliquer avec soin, puis que vous en pouvez tirer un grand avantage ; et qu'au contraire je n'en voy point à vous excuser si ce n'est comme je l'ay dit en certaines occasions qui pourroient causer de la peine si on ne disoit pas la verité. Celuy qui aura plus de discretion que je n'en ay comprendra aisément cecy : et je croy qu'il importe beaucoup de s'exercer à cette vertu, ou de tascher d' obtenir de nostre seigneur une veritable humilité qui en est comme la source. Car celuy qui est veritablement humble desire d'estre mesestimé, persecuté, et condamné, quoy qu'il n'en ait point donné de sujet."
Donc, s'il est vrai que j'ai donné quelque sujet à l'accusation de suffisance, alors mea culpa ! Et s'il s'avère que je n'ai point donné tel sujet, alors que mon accusateur soit pardonné !
2) Loto (suite du 23-11-2012)
Le même ami m'a fait une remarque intéressante (c'est sincère !) à propos du billet d'hier : 1-2-3-4-5-6. Je préfère le citer textuellement, afin de ne point travestir ses propos en mes termes suffisants. Certains mâchent leurs mots plus que d'autres...
"Le loto, comme tu sais, est un jeu de répartition et donc si on est un à avoir la bonne combinaison on gagne tout, si on est deux, on partage en deux, si on est N on partage en N. Les combinaisons équiprobables n'ont pas la même espérance de gain. Il y a intérêt à cocher une combinaison considérée comme improbable par les autres joueurs. La séquence 1-2-3-4-5-6 est donc une bonne idée ou une mauvaise idée selon que les imbéciles qui pensent qu'elle est plus rare que la moyenne sont plus ou moins nombreux que les crétins qui pensent qu'elle est plus fréquente. Il faut parier pour la faute de raisonnement la plus fréquente. La séquence est-elle trop simple pour sortir ou très élégante et donc assez probable ? Par exemple, les gens sont nombreux à jouer une date de naissance, ce qui fait que les séquences qui ne peuvent PAS être une date ont une espérance de gain plus élevée, etc. etc. La Française des Jeux possède les fichiers des séquences jouées chaque semaine; l'exploitation de ces paris serait passionnante (et lucrative, au moins en espérance) : quels sont les raisonnements faits par les joueurs (stupides mais ne sont-ils pas tous superstitieux puisqu'ils jouent ?) D'ailleurs, si tous les joueurs sont informés de ce que je viens de dire, quelle est leur stratégie optimale (une combinaison originale ou banale) ?"
3) Rappel. Toujours le même ami me signale qu'il a AIMÉ ma note sur la longue traîne. Je le crois juste trop pas... Donc cliquez ici !
Voilà ! C'est tout pour aujourd'hui ! C'est "suffisant", non ?
23-11-2012. 1-2-3-4-5-6 !
La buraliste de ma bourgade, une femme cordiale et sympathique, me scrute d'un œil atterré. Fait rarissime, je ne me suis pas contenté aujourd'hui du simple achat du Dauphiné Libéré (le Daubé) : j'ai également composé une grille de loto, que l'indiscrète s'est permise d'examiner, sans doute pour s'assurer que je l'avais correctement remplie. "1-2-3-4-5 et N° chance, le 6 !", épèle-t-elle à tue-tête et à la cantonade, ajoutant d'un ton rigolard et franchement désapprobateur : "Mais vous n'êtes pas bien, vous, alors ?". À la fois un peu surpris et assez satisfait de l'effet produit par ma grille provocatrice et, avec toute la fausse naîveté qui sied en la circonstance, je m'enquiers timidement des raisons d'une telle réaction : "Ah! bon, mais pourquoi donc me dites-vous ça ?". Sur ce, la dame des journaux, tabacs et alumettes, piquée au vif et prenant toute la clientèle de la Maison de la presse à témoin de l'incommensurable bêtise de ce parigot fraîchement installé en Haute-Savoie, de s'écrier : "Mais, Monsieur, parce que ça n'a aucune chance de sortir !". J'eus beau tenter de percer le brouhaha qui s'en est suivi par un très (trop) ferme : "Mais non, pas du tout, ni plus ni moins de chance que n'importe quelle autre combinaison !", il était déjà trop tard : je ne faisais que m'enfoncer davantage, le mal était consommé, le "bon sens" avait parlé, la maîtresse des lieux avait révélé l'évidence de ma coupable irrationalité... au prix - sévère mais par moi seul perçu - de renier la "vérité" de la théorie des probabilités !
Cet incident, survenu il y a quelque temps, m'a localement forgé une réputation de grand bénêt, au mieux de savant Cosinus, dont j'ai peu à peu appris à m'accommoder, voire à tirer parti. Dans les premiers temps, j'ai certes tenté de me rassurer en en parlant à des proches, à des amis, à des voisins. Face à ceux d'entre eux, étrangement majoritaires, qui se rangeaient sans hésitation dans le camp de la buraliste, j'opposais avec véhémence divers argumentaires qui ne réussissaient jamais à totalement convaincre, en dépit de leurs apparentes vertus pédagogiques. En voici quelques uns.
- Le dispositif mécanique qui réalise physiquement le tirage du loto ne "sait" ni lire ni compter. Il choisit les boules en tant qu'objets, non pas en tant que numéros. Pour ce dispositif, la séquence 1-2-3-4-5-6 ne présente ainsi strictement aucune singularité, elle équivaut en tout point à la séquence 6-17-23-35-37-43. Le procédé même du tirage ignorant tout de l'arithmétique et de la régularité numérale, on ne saurait évaluer la probabilité d'une combinaison à l'aune de son "profil" arithmétique.
- Imaginons qu'un extra-terrestre vienne jouer sur terre et que, dans son propre système de numération, un peu exotique, 1 s'écrive 6, 2 s'écrive 17, 3 s'écrive 23, 4 s'écrive 35, 5 s'écrive 37 et 6 s'écrive 43. Personne, à Faverges, ne se moquera d'E.T. lorsqu'il jouera 6-17-23-35-37-43 ! Or, sur Sirius, lorsqu'il jouait ces mêmes numéros, ses congénères éclataient de rire... et c'est d'ailleurs l'excellente raison pour laquelle il préfère dorénavant venir sur terre pour faire son loto.
- Imaginons que, au lieu de porter des numéros, les boules portent des icônes, à la manière des signes du zodiaque. Sur la boule N°1, on efface le chiffre 1 et on peint à la place un taureau. La N°2 devient de même un scorpion ; la N°3, un bélier ; la N°4, un sagittaire ; la N°5, des gémeaux ; la N°6, un tigre ; la N°7, un lion... la N°17, un rat... la N°23, un dragon... la N° 35, un bœuf, la N°37, un singe... la N°43, un cochon,... Cela vous gêne-t-il toujours autant que je joue Taureau-Scorpion-Bélier-Sagittaire-Gémeaux-Tigre, alias 1-2-3-4-5-6 ? Cette combinaison vous paraît-elle toujours infiniment moins vraisemblable que Tigre-Rat-Dragon-Boeuf-Singe-Cochon, alias 6-17-23-35-37-43 ?
- Croire que 6-17-23-35-37-43 est beaucoup plus probable que 1-2-3-4-5-6 est une illusion car, en suivant cette ligne de pensée, 8-15-29-39-41-48 serait également beaucoup plus probable que 1-2-3-4-5-6 et, de même, un très grand nombre de combinaisons "anonymes", c'est-à-dire sans relief et d'appparence "normale", seraient, elles aussi, beaucoup plus probables que 1-2-3-4-5-6. Or, si le "monstre" 1-2-3-4-5-6 ne sort pas, alors, parmi la foule de toutes les combinaisons "normales", une et une seule combinaison sortira finalement du tirage ! Et cette singularité là, celle consistant à sélectionner une seule combinaison particulière au sein d'une foule de combinaisons anonymes, la singularité de tirer une seule et unique paille hors d'une botte de foin, équivaut très exactement à la singularité consistant à sélectionner a priori une combinaison d'allure "atypique". Supposons qu'un martien s'amuse à tirer à l'aveugle le nom d'un seul humain : ou bien, comme par extraordinaire, il tire Barack Obama (1-2-3-4-5-6) ; ou bien, si ce n'est pas celui-là l'élu, alors Nicolas Curien (6-17-23-35-37-43) a exactement la même chance a priori d'être tiré que tout autre terrien... donc la même chance que Barack Obama, pas une plus grande chance !
Assez vite, je dus m'avouer vaincu et accepter le triste constat que ces propos imagés ne suffiisaient pas à faire tomber les écailles de la plupart des yeux incrédules. Dans le cas le plus favorable, mes interlocuteurs retiraient l'impression que je devais sans doute avoir "raison" au sens de la mathématique probabiliste et que ces arguties de polytechnicien (fou et attardé) comportaient donc au moins un mérite important : celui d'apporter l'irréfutable "preuve" qu'un fossé irréductible sépare la théorie de la pratique... Car, dans la pratique, il est bien clair que la sexte parfaite 1-2-3-4-5-6 ne sortira jamais de la sphère du loto ! D'ailleurs, on n'a jamais vu ça de mémoire de joueur, ni même six numéros consécutifs, ni même cinq, ni même sans doute quatre ! Mes plus virulents contradicteurs ont été jusqu'à me traiter de scientiste, d'esprit borné, refusant l'évidence patente d'une terre plate !
Et pourtant, elle est ronde et elle tourne... Mais gardons cette vérité pour nous, à défaut de savoir la faire partager, et déplaçons maintenant la question du terrain de la mathématique vers celui de la psychologie cognitive. Pourquoi diable "les gens" préfèrent-ils à ce point imaginer que la terre est plate, pourquoi, à leurs yeux, la combinaison 1-2-3-4-5-6 doit-elle "forcément" être beaucoup plus improbable que 6-17-23-35-37-43 ?
Un premier niveau d'explication réside sans doute dans la nécessité d'un "déni de réalité", seul capable d'entretenir l'excitation du jeu. Car il est parfaitement exact que 1-2-3-4-5-6 est très (très) improbable, avec environ une chance sur 14 millions d'émerger ! Dès lors, admettre qu'aucune autre combinaison, pas même 6-17-23-35-37-43, puisse s'avérer strictement plus favorable que celle-là revient du même coup à admettre que "c'est fichu d'avance..." ! Autrement dit, tout calcul probabisliste rationnel serait refusé car il serait propre à tuer tout net l'esprit d'aventure : une chance sur 14 milllons, à raison de 150 tirages par an, c'est 100 000 ans d'attente moyenne avant de gagner, soit mille vies humaines, soit mille incertaines réincarnations... Tout au contraire, des calculs faux excitent et alimentent la pulsion ludique : bien-sûr, il convient de ne pas jouer 1-2-3-4-5-6 qui n'a "aucune chance", n'en parlons plus... ; mais aussi, ne plus jouer le 43 pendant un certain temps, parce qu'il est "beaucoup" sorti récemment ; ou, à l'inverse, jouer ce numéro en priorité, parce qu'il semble "en veine" en ce moment ! Ce qui importe dans ces pseudo-raisonnements et supputations fantaisistes, ce n'est évidemment pas leur degré de justesse, mais leur capacité à nourrir l'imaginaire, à transformer un jeu parfaitement décourageant, tant le hasard le plus uniforme s'y impose de la manière la plus crue, en un terrain d'action potentiellement riche de possibilités, où des stratégies seraient même possibles, voire efficaces ! Autrement dit, pour vivre sa passion, l'homo ludicus doit d'abord étouffer en lui l'homo sapiens !
Un second niveau d'explication, complémentaire du premier, réside à mon sens dans "l'aversion pour l'aléa uniforme" (une notion différente de celle d'aversion pour le risque). L'uniformité, c'est la mort. La vie, c'est l'existence de formes variées et c'est aussi une divesité bornée, dans laquelle prévalent des formes jugées "normales", "habituelles" ou "moyennes" : certaines formes sont plus probables que d'autres formes. Par exemple, la taille ou le poids des individus ne sont pas des variables uniformément distribuées dans la population : les hommes dont la taille est comprise entre 1,60 m et 1,90 m sont la règle ; au-delà de ces bornes, les "nains" et les "géants" sont l'exception. Pour se repérer, l'esprit humain éprouve sans cesse le besoin de distinguer l'habituel de l'exceptionnel. Or, en matière de loto, le cerveau devrait sagement s'abstenir de se livrer à un tel exercice, puisque la réalité même à laquelle il est dans ce cas directement confronté est celle de l'uniformité totale : chacune des N combinaisons possibles du loto a en effet la même probabiité 1/N d'advenir. Et pourtant, par aversion pour l'uniformité, le cerveau du joueur de loto veut à tout prix créer une forme, imposer un ordre, établir une hiérarchie, là où il n'y en a pourtant aucune ! Et, pour ce faire, il prend la voie qui lui est la plus naturelle, s'agissant d'une suite de nombres : il décrète ainsi "normale" une suite de numéros ne présentant aucune régularité arithmétique particulière et il décrète "atypique" une suite présentant une ou plusieurs singularités (telles que contenir 1, contenir plusieurs nombres consécutifs, etc.). Et notre joueur évite naturellement de jouer une combinaison atypique... puisqu'il s'est auto-persuadé qu'elle moins probable qu'une autre ! Le mécanisme mental serait ainsi le suivant. Dans un premier temps, refoulement de l'uniformité, jugée trop désespérante, trop mortifère. Dans un deuxième temps, recherche d'une hétérogénéité substitutive, par association cognitive : l'ordre aritmétique est ici privilégié parce que les boules portent des nombres, mais le dégradé de l'arc-en-ciel jouerait sans doute le même rôle si les boules portaient des couleurs.
Avec l'effet de recul, cette réflexion m'aide à mieux comprendre l'attitude quelque peu agressive de la buraliste : comment aurait-elle pu traiter avec davantage de ménagement un intrus qui, par son comportement irresponsable, à force de s'afficher comme rationnel, assassinait tout rêve du gain et décourageait ainsi les clients des jeux. Toute vérité n'est pas bonne à dire, "il a dit la vérité, il doit être exécuté" ! À défaut d'en reparler avec l'intéressée (j'ai trop peur), j'ai eu l'occasion d'échanger hier à ce sujet dans un train avec mon ami philosophe Jean-Pierre Dupuy, spécialiste de l'évaluation des risques extrêmes (plutôt les accidents nucléaires que les tirages du loto !), avec lequel je me suis remémoré les fondements épistémiques de la théorie des probabilités.
Cette théorie postule l'existence d'un ensemble Ω "d'états du monde", des quanta équiprobables, générateurs de tous les évènements possibles : un évènement particulier n'est autre que la collection de tous les états du monde qui conduisent à la réalisation de cet évènement. Ordinairement, on n'observe pas directement les états du monde, qui sont des "complexions microscopiques" hors d'atteinte. On observe seulement des évènements agrégés, c'est-à-dire des configurations macroscopiques, chaque configuration étant la résultante d'un très grand nombre de complexions. Dans certains cas, une configuration macroscopique particulière est engendrée par une majorité si écrasante de complexions microscopiques que cette configuration, quasi-certaine, est la seule qui soit observée en pratique, à de petites fluctuations près. Il en va ainsi, par exemple, de la répartition statistique des niveaux d'énergie des molécules dans un gaz parfait : la loi de distribution exponentielle de Boltzman.
À l'échelle macroscopique de l'observation humaine, la loi de Boltzman est l'outil pertinent pour le physicien, lui permettant notamment de retrouver les lois empiriques des gaz parfait : au niveau macroscopique, donc, "l'homme sait tout" ! Imaginons maintenant qu'une certaine "Physicienne des Jeux" organise un "thermo-loto", dans lequel les joueurs parieraient sur la complexion microscopique, à un instant donné, des molécules d'un gaz enfermé dans un réservoir : une case de la grille de jeu pour chacune des N molécules ; un niveau d'énergie à choisir parmi p niveaux posssibles, à inscrire dans chacune des cases ; donc, en tout, pN états du monde équiprobables, entre lesquels un seul doit être sélectionné. Au joueur qui aspire, pour gagner, à choisir le même état du monde que l'état élu par la Nature, la loi de Boltzman n'est strictement d'aucune utilité, car cette loi, cette forme remarquable, n'est valide qu'à l'échelle macroscopique, alors que le pari, quant à lui, opère à l'échelle microscopique : une échelle infernale où le joueur se trouve plongé par quelque démon de Maxwell dans un univers sans forme, fait d'une immensité plate de complexions équiprobables... Si l'homme sait tout au niveau macroscopique, le tout qu'exprime la distribution de Boltzman, en revanche, au niveau microscopique, il ne sait rien, le rien qu'exprime la distribution uniforme !
Pour finir, un ami, amateur de courses hippiques, m'a rapporté cette anecdote, que je crois volontiers véridique : à un collègue joueur de loto et de jeux de grattage, qui se désespérait devant lui de ne jamais rien gagner, il suggéra un jour qu'il tentât sa chance au PMU. La réponse de l'intéressé fut immédiate : "Ah! non, avec les chevaux, là, il y a vraiment 'trop' de hasard !" Ceci me semble assez bien conforter la théorie proposée dans ce billet : lorsque des aléas "concrets", comme ceux liés à la configuration d'un champ de courses, à la forme physique d'un cheval, à la qualité de l'entraîneur, au talent du jockey, à l'état d'un terrain... s'imposent tellement à l'esprit que ce dernier ne peut les dénier ni les contourner, alors l'idée du hasard frappe de plein fouet et ne peut aisément être évacuée ; mais, si l'aléa réside dans "l'abstraction" mathématique d'une loi de distribution uniforme, alors l'esprit donne libre cours à son imagination pour combler de toute urgence ce vide cognitif et inventer toute "forme" rasssurante qui chasse l'idée insupportable du hasard complet. Le collègue de mon ami aurait ainsi pu ajouter : "Tu comprends, j'ai une maîtrise complète de ma combinaison de loto et, là au moins, je ne dépends pas du bon vouloir d'un entraîneur, de l'humeur d'un jockey, de la lourdeur d'un terrain, ou de la qualité d'une météo !". Paradoxalement, un imprévisible radical me renvoie moins fortement l'image du hasard qu'un prévisible que je ne sais pas prévoir, car le premier stimule mon imaginaire alors que le second me confronte à mon impuissance.
20-11-2012. 4ème licence mobile : quel impact ?
Augustin Landier (Toulouse School of Economics) et David Thesmar (HEC, Paris) se sont livrés à un exercice rigoureux sur une question aussi sensible que délicate : l'évaluation de l'impact macroéconomique de l'attribution de la 4ème licence mobile, en France. Un sujet qui intéresse beaucoup... depuis le lancement de Free Mobile, en janvier dernier ! Toutefois, faute d'une grille d'analyse précise et cohérente, le débat a pris jusqu'ici des airs de bagarre de saloon, plus animé par la passion que dirigé par la raison. Avec l'étude de nos deux experts, voici que la raison entre en lice, enfin !
Alors, combien ? Combien d'emplois, selon eux, seront-ils perdus dans les télécoms ? Davantage que les 10 000 avancés par Président de l'ARCEP ? Moins que le chiffre apocalyptique de 60 000 emplois, émis au printemps par Bruno Deffains (Université Paris II) ? Eh bien, au risque de décevoir très fortement, les auteurs ne consacrent à cette question, si controversée, qu'une bien maigre demi-page parmi les quelque 70 que comporte leur rapport ! Ils ne nient certes pas les restructurations en cours et à venir dans le secteur des télécoms et ils semblent même accorder quelque crédit au "chiffrage de l'ARCEP" en termes de perte d'emplois ainsi provoquée, sans toutefois l'auditer. Mais alors, pourquoi de leur part ce "scotome scintillant" ? Pourquoi se montrent-ils muets sur ce qui produit tant de vacarme du côté du saloon ?
Parce que - et j'approuve entièrement leur position méthodologique - les pertes d'emploi dans les télécoms sont une conséquence des gains de productivité dans ce secteur et non pas une conséquence de l'accroissement de la concurrence. Free ne peut être tenu pour responsable des effets intra-sectoriels des gains de productivité, effets certes négatifs sur l'emploi mais qui auraient prévalu de toute manière, sous l'impulsion du progrès technologique ; sans doute un peu moins vite, il est vrai. L'impact "propre" de l'entrée de Free Mobile, c'est-à-dire ce qui est spécifiquement causé par le 4ème opérateur et n'aurait pas eu lieu sans son arrivée, est donc circonscrit aux effets externes qu'une plus forte intensité concurrentielle sur le marché mobile exerce sur le reste de l'économie. C'est ainsi, à logique et juste titre, que A.L. er D.T. cantonent leur analyse à cette seule question. Auraient-ils dû l'expliquer en page 1, plutôt qu'à un détour de la page 42 ? Je vous l'accorde bien volontiers et tel est d'ailleurs le seul reproche, de pure forme, que je saurais leur adresser !
Il n'est plus maintenant qu'à suivre le fil d'Ariane du raisonnement économique. Quels sont les effets d'une concurrence accrue dans la téléphonie mobile ? Premier effet, direct : les prix baissent sur le marché mobile, entre 10% et 20%, ce qui libère du pouvoir d'achat, soit environ 1,7 milliard par an pour 10 points de baisse tarifaire. Il en résulte un accroissement de la demande pour les autres biens et services de l'économie.
- À court terme, cet accroissement de la demande entraîne mécaniquement un accroissement de l'offre de même ampleur, sans que les prix s'ajustent. Le multiplicateur keynesien engrange alors son cycle vertueux : la production augmente, donc l'emploi augmente, donc la consommation augmente, donc la production augmente... Quantitativement, 15 000 emplois seraient ainsi créés dans l'économie, pour 10 points de baisse des prix ; et 30 000 emplois, pour 20 points de baisse.
- À plus long terme, le modèle néo-classique se révèle plus approprié que le modèle keynesien, car l'égalité entre l'offre et la demande résulte alors d'un équilibre, permis par l'ajustement des prix. Selon ce second point de vue, ce n'est plus un "choc de demande" qui entraîne l'offre et donc l'emploi ; le germe du processus repose désormais sur un "choc d'offre" : à coût du travail supposé rigide (en raison du sous-emloi), les entreprises sont incitées à embaucher davantage, car la baisse du coût de la téléphonie mobile augmente leur rentabilité. Numériquement, l'effet de long terme serait à peu près double de l'effet de court terme : 30 000 emplois pour 10 points de baisse des prix sur le marché mobile.
Bien-sûr, dans le saloon, on continuera de se battre ! Notamment grâce aux vertus pédagogiques de cette excellente étude, certains finiront certes par admettre que Free n'est peut-être pas le dangereux hors-la-loi que l'on croyait... Mais, de là à reconnaître en lui un Lucky Luke, il y aurait un désert à franchir ! Les mêmes, qui aujourd'hui conspuent Free, s'évertueront demain à démontrer que c'est à eux, et non pas à ce lonesone cow-boy, qu'il convient d'attribuer tout le mérite des créations nettes d'emplois... Et ils auront entièrement raison d'affirmer qu'ils y sont aussi pour quelque chose car, dans cette affaire, Free a d'abord et surtout été l'incontestable déclencheur d'une dynamique vertueuse... une dynamique dont tous les opérateurs du marché sont bel et bien désormais les parties prenantes. Et, comme l'explique très bien le rapport, cette dynamique n'est pas seulement favorable à l'emploi : elle est tout aussi bénéfique à l'innovation et à l'investissement.
La morale de ce billet ? L'auto-satisfaction ! Car, avec l'effet de recul, je puis affirmer que l'ancien membre de l'ARCEP que je suis ne regrette pas notre décision collégiale, prise en janvier 2010, d'attribuer la 4ème licence mobile française à la société Free Mobile. "Je ne regrette pas" et ceci est, on l'aura compris, une litote !
18-11-2012. Green for IT
Le 13 novembre dernier, la réunion mensuelle de la "Commission TIC", au sein de l'Académie des technologies, était conscrée à un sujet environnemental important : comment maîtriser la consommation d'énergie des technologies de l'information et de la communication ? Mes confrères Erol Gelenbe (Imperial College), animateur du groupe de travail académique "Éco-technologies de l'information et de la communication" et Alain Pouyat (Bouygues), membre de ce groupe et expert reconnu en matière de "Processus industriels pour une informatique durable", nous ont présenté un rapport d'étape. L'ignare en la matière que je suis - que j'étais ? -, a tiré de cette stimulante séance les quelques enseignements suivants.
- Le vocable "Green IT" est bi-sémique : il signifie tout à la fois "verdir" les TIC (Green for IT) et utiliser les TIC pour "verdir" la planète (IT for Green). Si les deux sous-sujets sont certes distincts au plan logique, ils sont en revanche étroitement imbriqués et synergiques du point de vue du développement durable : mobiliser massivement les TIC pour couvrir le monde de smart grids et de smart cities ne présenterait en effet guère d'intérêt, si l'économie de ressources promise par l'avènement de cette 'intelligence" pervasive était (bêtement) effacée par une consommation induite !
- Dans les grandes entreprises, se met aujourd'hui en place une comptabilité extra-financière. De même qu'elles publient leur bilan financier, elles devront désormais montrer patte verte, en présentant leur empreinte carbone ainsi qu'une batterie d'indicateurs environnementaux, dont la performance en matière de Green IT. Des commissaires aux comptes extra-financiers attesteront la conformité et la véracité de ces déclarations.
- Bien que les chiffres varient quelque peu selon les sources, on peut retenir les ordres de grandeur suivants : la consommation électrique des TIC représente plus de 5% de la consommation électrique mondiale, dont environ 50% sont imputables aux postes de travail (ordinateurs personnels, écrans, imprimantes...), 25% aux data centers et 25% aux réseaux. Les data centers ne constituent donc pas actuellement le segment le plus energivore, mais notons que leur consommation s'est accrue de presque 60% entre 2005 et 2010, alors que le taux de croissance moyen de la consommation électrique, pour l'ensemble des TIC, s'établit à environ 4% par an.
- Le rendement énergétique des data centers est aujourd'hui très médiocre. Pour 1 kW effectivement utilisé par les machines informatiques, la consommation électrique s'élève à quelque 2 kW compte tenu de l'alimentation des "servitudes", principalement la climatisation. À technologie constante, on pourrait sans doute gagner à peu près 20% par rapport à la situation présente. D'abord, en recourant davantage à la virtualisation, c'est-à-dire au regroupement de plusieurs serveurs sur une même machine physique. Ensuite, grâce à une détection ciblée des "points chauds", les centres pourraient fonctionner à une température de 24°C, voire 30°C, au lieu des 18°C actuels, ce qui permettrait le "free cooling", mode de refroidissement qui utilise l'air extérieur. Concomitamment, la "densité énergétique", actuellement égale à 1 ou 2 kW/m2, pourrait être portée à 10 kW/m2. Par ailleurs, une alimentation en courant continu serait plus sobre. Enfin, la chaleur évacuée des salles de machine pourrait être récupérée pour le chauffage des bâtiments.
- S'agissant de la consommation des postes de travail dans les entreprises, la piste d'améliorration la plus prometteuse réside dans l'effacement aux heures de pointe. Un tel effacement peut être programmé et optimisé à l'aide d'un système d'information en temps réel, indiquant l'état d'alimentation de chacun des postes de travail d'une société.
- Quant aux effets externes positifs de l'utilisation des TIC sur la consommation énergétique de l'ensemble des activités humaines, il faut raison garder. Dans la sphère professionnelle, les téléconférences ne se sont jamais substituées aux déplacements, non pas tant parce que leur qualité était jusqu'ici modeste et leur coût relativement élevé, mais surtout parce que la communication médiatée et la communication en face à face sont des comportements relationnels complémentaires et non pas substituts. Et, dans la sphère privée, la croissance du commerce électronique de biens et services non numérisables ne diminue pas le transport de marchandises, mais l'augmente : il faut bien livrer physiquement ce qui est acheté électroniquement. Par ailleurs, au moins pour certains biens, la principale fonction du commerce électronique est l'information, davantage que l'achat : en ligne, les consommateurs se renseignent sur la qualité des produits, comparent les prix... puis ils prennent leur voiture pour effectuer et emporter leurs achats !
- D'un point de vue scientifique, la mesure de la consommation énergétique des TIC soulève des problèmes méthodologiques non triviaux, la grandeur la plus pertinente n'étant pas l'énergie elle-même, mais plutôt l'énergie rapportée à la charge de travail, donc mesurée en Watt/Flop pour une machine, en Watt/Paquet pour un réseau, etc. En effet, afin d'optimiser un processus de calcul informatique ou un protocole de gestion de trafic en prenant en compte la dimension énergétique, il faudrait en théorie être capable d'associer à un algorithme en cours d'exécution sa consommation d'énergie en temps réel....
- Il convient de se méfier des faux amis ! Ainsi, une machine au repos (ou presque) peut consommer jusqu'à 50% de son niveau de pointe, notamment en raison de l'inertie de refroidissement ; car, même si la machine ne calcule plus depuis plusieurs minutes, il est encore nécessaire d'évacuer sa chaleur. Par ailleurs, les opérations de mise en sommeil (hibernation) puis de réveil (resumption) d'une machine sont voraces en énergie : avant de s'endormir, la machine doit procéder à de multiples sauvegardes et, avant de s'éveiller, à de nombreuses restaurations ; d'où, durant ces phases, un rythe d'activité supérieur à la moyenne et, par conséquent, une sur-consommation.
- La tendance étant à la simplification des terminaux, ce sont les réseaux qui deviennent à présent le facteur le plus critique en matière de consommation énergétique. D'où l'idée de tenir compte des flux énergétiques dans les algorithmes de routage, ou encore celle de déplacer la charge de travail vers les endroits où la demande d'énergie est la moins tendue.
- Interrogés en conclusion sur une perspective réaliste d'évolution de la consommmation énergétique des TIC, nos deux rapporteurs ont formulé une réponse me semble-t-il crédible, à défaut d'être enthousiasmante : selon eux, les gains d'efficacité du green IT ne seront certainement pas suffisants pour endiguer le tsunami "Big Data" : la pente du profil de consommation restera donc strictement positive et vraisemblablement augmentera...
16-11-2012. Compétitivité et Innovation selon Bertand Collomb
Bertrand Collomb, membre de l'Académie des sciences morales et politiques, ex-CEO de Lafarge, était l'invité d'un petit-déjeuner de l'Académie des technologies, le 14 novembre dernier. À cette occasion, il a fait part de ses vues sur le thème "Compétitivité et Innovation" et brièvement commenté le rapport Gallois, ainsi que l'action du Ministre du redressement productif. Je vous livre, dans un semi-vrac, mes notes prises lors de cet intéressant exposé, agrémentées de quelques réflexions personnelles.
- La mondialisation est la règle. Même pour une entreprise dont la logique est a priori régionale (on transporte rarement du ciment sur plus d'une centaine de kilomètres entre le lieu de production et le lieu de consommation), il est efficace de se mondialiser, de se globaliser, afin de bénéficier d'économies d'échelle de savoir-faire et d'amortir des cycles conjoncturels.
- Pour s'implanter avec succès à l'étranger, que ce soit aux États-Unis, en Inde ou en Chine, une entreprise doit disposer d'une base nationale solide, qui lui permette de tenir bon, le temps nécessaire au franchisssement des obstacles culturels qui retardent la viabilité. Cela prévalait déjà les années 50 lorsque Lafarge s'est implanté aux États-Unis, une époque bénie où le modèle de l'ingénieur à la française apparaissait comme un incontestable label de réussite !
- Dans la compétition économique mondialisée, La France souffre aujourd'hui d'un handicap en matière de R&D privée et d'innovation : elle est plus performante dans les secteurs d'industrie lourde "lourde" que dans la High Tech ! Aux vertus de l'ingénieur français, se seraient-ils substitués les vices du conservatisme, du manque d'ambition et de l'incapacité à innover !
- Il y aurait aujourd'hui 35 000 "robots" en France, contre 60 000 en Italie et 150 000 en Allemagne. Le taux d'informatisation et d'automatisation est donc comparativement faible dans notre pays. Pourquoi ? Nous avons pourtant de bonnes socétés de services informatiques... La raison résiderait dans une résistance au changement et à la réorganisation, plus grande chez nous que chez nos voisins : nous n'utilisons pas les technologies de l'information autant que nous le pourrions et nous le devrions.
- Il existe deux types d'innovations : les innovations d'amélioration et les innovations de rupture. S'agissant du premier type, nous sommes très "bons", mais les Chinois le sont également devenus ; et, s'agissant du second type, les États-Unis ne font que renforcer leur écrasante suprématie, grâce à leur capacité à valoriser le "risque extrême". Ceci contribue à expliquer pourquoi, dans le secteur des télécoms, où nous étions pourtant leaders il ya dix ans, la situation s'est aujourd'hui retournée... Ajoutons que les américains protègent leur marché, alors que les européens l'ouvrent au contraire, et que le manque de cohésion entre grandes sociétés européennes du secteur n'a guère joué favorablement.
- Il existe deux types de compétitivité, coûts et hors coûts. En matière de compétitivité coûts, la France a décroché d'environ 20% par rapport à l'Allemagne depuis 2000. Elle a ainsi perdu une précieuse marge de manœuvre, fortement ressentie en particulier par les constructeurs automobiles nationaux, qui ne peuvent pas, contrairement à leux concurrents d'outre-Rhin, vendre une voiture 20% plus cher sur le seul fondement de sa marque. Quant à la compétitivité hors-coûts (innovation, recherche, entreprenariat), les entreprises françaises éprouvent une certaine difficulté à la financer, disposant d'un taux marge inférieur de 10 points au taux moyen de la zone Euro... Le raisonnement se boucle toutefois, car un effort d'innovation permettrait d'améliorer les marges d'exploitation... et donc le financement de l'innovation.
- Pourquoi les français ont-ils tellement peur de la concurrence, du changement et de la mondialisation ? Est-ce la faute à Colbert, d'une méfiance viscérale vis-à-vis du marché et d'une foi immodérée en l'État-providence ? Est-ce la conséquence perverse d'une défaillance du système éducatif ? Peut-être pour partie... B.C. avance une explication alternative ou complémentaire. Le premier choc pétrolier, en 1975, s'est traduit par un chômage massif (perte de 500 000 emplois)... dont la France n'est jamais sortie depuis, avec un taux de chômage variant entre 6% à 10%. Il en serait résulté une sorte de tétanisation, une frilosité structurelle face à tout changement, perçu avant tout comme une menace pour l'emploi. Chat échaudé craint l'eau froide !
- La non-flexibilité du travail comporte un coût considérable ! Lorsque 100 $ sont délocalisés des États-Unis vers l'Inde ou la Chine, l'opération se traduit par un gain net de 4$ (les - 100 $ sont sur-compensés par + 104 $), car les emplois concernés ne sont pas perdus mais déplacés et car l'économie de coût permise par la délocalisation se traduit par une baisse de prix qui libère du pouvoir d'achat et relance l'activité. Mais si les mêmes 100 $ sont délocalisés de la France vers l'Asie, alors le bilan est une perte nette de 20 $ (les - 100 $ sont sous-compensés par + 80 $) , car notre marché du travail est trop rigide (les travailleurs licenciés n'acceptent pas un emploi moins rémunéré où éloigné) et la libération de pouvoir d'achat profite pour une trop grande part aux importations.
- Que faire ? Un quasi-consensus semble régner quant au diagnostic de compétitivité et quant aux remèdes, pour la plupart proposés dans le rapport Gallois. Une majorité (sinon LA majorité !) s'accorde à penser qu'il faut réduire les coûts, reprendre la désinflation compétitive, créer un écosystème plus favorable aux entreprises, restaurer un climat de confiance propre à susciter et attirer l'investissement (ce qui sera le plus difficile vis-à-vis de l'international, à la suite des mesures prises depuis six mois), encourager une montée en gamme de l'industrie, revoir la fiscalité par un transfert des charges sociales vers la TVA, favoriser la synergie entre recherche publique et recherche privée, agir en amont au niveau de l'éducation et de la formation, etc.
- Seuls deux aspects échappent au consensus : le pacte social et le rôle de l'État. Sur le premier point, B.C. souligne que si elle est indubitablement opportune en période de crise, la représentation salariale dans les conseils d'administration produit moins d'effets bénéfiques dans des périodes de conjoncture moyenne, durant lesquelles le souci de ne pas mécontenter pourrait conduire les dirigeants à faire la preuve d'un excès de prudence et d'un défaut d'initiative. Sur le second point, B.C. - tout comme moi-même et je l'espère quelques autres ! - ne partage pas la philosophie de "colbertisme participatif" ardemment prônée par Arnaud Montebourg, car celle-ci tend à rabaisser l'économique au rang de vassal du politique : pour le Ministre, acheter made in France ou sécuriser les emplois menacés, c'est avant tout préserver la souveraineté nationale ; sa préoccupation première n'est donc pas l'efficacité... or l'efficacité voudrait notamment que, sur le marché du travail, on œuvre à la flexibilité des emplois davantage qu'à leur sécurisation !
- À propos de l'État stratège, il n'est certes pas illégitime que les pouvoirs publics interviennent sur l'économie en tant que régulateur, afin de corriger des inefficacités auxquelles la concurrence pourrait conduire si elle opérait seule. Notamment, la pression croissante des préoccupations environnementales se traduira sans nul doute par des contraintes sur le libre fonctionnement des marchés. Sans guide, le marché n'anticipe pas à un horizon de vingt ans ! Mais ce qu'il faut à tout prix éviter, c'est de confondre la nécessité d'une intervention publique ciblée et justifiée avec la tentation d'un dirigisme permanent ! Exemple concret, pour favoriser l'exportation des PME, mieux vaudrait que la puissance publique s'attache à changer la culture des entrepreneurs en agissant au niveau de l'Éducation plutôt qu'elle procéde répétitivement par la voie législative à une série de mesurettes en cascade et sans effets pérennes.
- Le mot de la fin : vaincre la peur de l'avenir, combattre la résistance au changement, rétablir la confiance, changer la culture, sont les conditions nécessaires d'un redressement de la compétitivité, lui même condition nécessaire pour que la France conserve son rang d'acteur dynamique au sein de l'Europe. Seul le fond importe et les questions de vocabulaire, bien qu'elles nourissent trop souvent les débats, ne sont qu'accessoires : choc de compétitivité, ou trajectoire de compétitivité comme préfère le dire A.M., l'un et l'autre se dit ou se disent !
10-11-2012. Renart et HADOPI
Dans la continuité du billet d'hier, j'exhume des entrailles de mon ordinateur quelques textes écrits dans le feu de la bataille pro-licence globale. Au menu d'aujourd'hui, je propose ce pamphlet à la manière du Roman de Renart, traduit du vieux françois par mon double anagrammatique Caruso Celinni. La diffusion en était jusqu'ici restée assez confidentielle, devoir Arcépien de réseve oblige...
"Le vent du numérique souffle sur le royaume de la forêt. De nombreux artistes vivent cette innovation comme une menace : Tiercelin le corbeau, Chantecler le coq, Brichemer le cerf, s’inquiètent devant la multiplication des copies pirates, qui de son croassement, qui de son chant, qui de son brame. Il n’est jusqu’aux doux feulements de Dame Fière, la belle souveraine, qui ne soient illégalement téléchargés à foison sur la toile.
Devant pareil désordre, sa puissante Majesté, Noble le lion, ne peut rester sans agir. Dans l’urgence, il convoque le Conseil et confie à Ysengrin le loup, son plus fidèle lieutenant et le plus ancien de ses barons, le soin de légiférer. Ainsi naît le projet Hadopi, prévoyant avertissement puis déconnexion des contrevenants récalcitrants. La Cour s’y rallie dans sa majorité, mais une minorité résiste, conduite par Renart le goupil, partisan d’un système alternatif, sans contrainte ni répression, la licence globale.
Contestation aussi frontale apparaît pour le moins fâcheuse. « Le félon devra abjurer ou périr ! » : tels sont les mots terribles de Noble, à l’adresse d’Ysengrin. A leur sonorité, le sang du loup se glace, qui craint pour lui-même bien plus encore que pour son neveu Renart : le goupil, il le sait, ne se dédira point et, pour peu que lui, Ysengrin, ne parvienne à l’occire promptement, nul doute que Noble fera double proie, traitant d’un même élan et le traître et l’incapable.
Or donc, seule la ruse pourra tirer le loup de ce mauvais pas : il prétextera une visite de courtoisie, invitera fort aimablement le goupil à chasser en sa compagnie, le couvrira de mielleux propos afin de le mettre en confiance… et finira par lui tordre le coup, au moment le plus propice.
Ajustant les détails de son plan, Ysengrin, rasséréné, trottine d’un pas léger vers Maupertuis, le coquet logis de Maître Renart. Il y est accueilli par Malebranche, Percehaie et Rovel, les trois renardeaux du goupil, qui pianotent gaiement sur leur ordinateur potable, assis sous la futaie, tout près de l’entrée du terrier.
Ysengrin (d’un ton enjoué). Alors, on télécharge, les enfants ? Ca, c’est trop cool !
M., P. et R. (en chœur). Trop cool de chez cool, oncle Ysengrin ! Là, on downloade le prime de Dame Copette : la poule, last night, c’est clair, elle a déchiré grave… elle a sauvé sa place à la clairière de la Star Ac !
Ysengrin (un peu décontenancé, s’efforçant de faire bonne figure). Wesh, c’est clair de chez clair !
........"
Lire ici l'intégrale du texte !
9-11-2012. La caverne d'Ali le Numérique
Une amie m'a hier remis en mémoire mon apologue de la caverne d'Ali Baba, dont elle aurait fait son miel sous une forme adaptée et dans un autre contexte que celui de l'économie numérique. Paru dans le Figaro du 4 mars 2006, cet apologue m'avait alors servi à convaincre du bien-fondé de la licence globale en tant que dispositif de distribution légale de contenus en ligne, en lieu et place de la loi HADOPI, qui était encore à l'époque à l'état de projet très controversé. Je viens de retrouver ce "poulet vintage" et vous en livre l'extrait pertinent :
"Imaginons qu’ait été inventée une technologie miracle permettant de remplacer à l’identique et sans aucun coût tout CD retiré des bacs. Il apparaîtrait alors impensable que des caisses soient disposées en sortie de magasin, afin de faire payer les CD emportés par les clients : celui qui part avec mile disques cause en effet le même coût que celui qui part avec un seul, c’est à dire zéro. En revanche, personne ne comprendrait que des caisses ne soient pas installées à l’entrée, afin de facturer l’accès à cette caverne d’Ali Baba ! Ce que permet en effet l’étonnante technologie de réplication gratuite et automatique, c’est le renouvellement permanent du contenu de la caverne, non pas la constitution préalable de ce contenu. Or celle-ci comporte un coût et engendre une valeur économique, que doit impérativement rémunérer un droit d’entrée. La technologie miracle, c’est la numérisation ; le trésor inépuisable renfermé dans la caverne, la musique « gratuite » en ligne ; et le droit d’entrée, la licence globale !"
Très franchement, je ne ressens guère le besoin d'amender significativement ce texte aujourd'hui, si ce n'est pour convenir que la licence globale n'est sans doute pas l'unique voie du salut : les plateformes de distribution en ligne d'initiative privée, facturant leurs clients au forfait et non à l'unité, respectent l'exigence économique esssentielle, c'est-à-dire l'alignement de la structure des tarifs sur la structure des coûts.
8-11-2012. Neutralité n'est pas homogénéité
Le concept de neutralité d'Internet est souvent confondu, à tort, avec celui de non-discrimination du trafic. Une telle assimilation semble acceptable à première vue et en première approximation, lorsqu'il s'agit simplement de bannir le blocage des contenus ou encore la discrimination à l'évidence anti-concurrentielle. La confusion entre neutralité et non-discrimination devient en revanche inappropriée à seconde vue, lorsque l'on considère l'exigence d'une gestion efficace du trafic, du côté de l'offre, ou encore la grande diversité des requêtes des utilisateurs, du côté de la demande. Une neutralité qui ignorerait cette exigence comme cette diversité, une neutralité comprise commme la nécessité d'une homogénéité "pure et parfaite", serait absurde, car tout à la fois, elle dégraderait la qualité de service et ne répondrait pas aux besoins !
Afin d'appréhender clairement les débats en cours, il est indispensable de disposer d'une définition spécifique et non ambiguë de la notion de neutralité. Lors d'un prochain séminaire organisé dans le cadre (fort agréable) de l'Institut Universitaire Européen de Florence (EUI), je proposerai une possible définition formelle de la neutralité, basée sur un principe de "différenciation sélective". En très bref, il est admissible que certaines variables soient discriminantes, et il est exigible que d'autres ne le soient pas. Alors, selon la teneur et l'extension des critères de discrimination admissibles, la neutralité est adaptative : elle peut prendre des visages contrastés dans des contextes technologiques ou politiques différents, elle peut également évoluer au cours du temps dans un contexte donné. Cette grille d'analyse flexible paraît propice à discuter et comparer les grands enjeux liés à la neutralité, tels qu'ils sont respectivement débattus sur les scènes européenne et nord-américaine.
La "théorie de la différenciation sélective", ou de la "neutralité adaptative", n'est en définitive pas tès éloignée du concept de "quasi-neutralité", ou de "neutralité sous contraintes", ou de "neutralité de second rang", que j'avais lancé il y a deux ans lors d'un colloque de l'ARCEP, un peu imprudemment il est vrai, au vu de la violence des réactions sur la blogosphère... Mais, si j'ose dire, ma nouvelle formulation est nettement plus neutre que l'ancienne, plus précise aussi, et j'espère ainsi qu'elle éclairera les esprits, davantage qu'elle ne les choquera ! Je posterai bien-sûr mon intervention de Florence sur le site... dès qu'elle sera écrite !
7-11-2012. Un Vénérable m'a dit...
Le billet d'aujourd'hui est dédié à mon amie Xénia, qui s'est paisiblement éteinte hier après-midi, dans sa dix-neuvième année féline. Du "cha(p)tel" qui nous tient ici compagnie, Xénia était la doyenne et ses congénères la considéraient avec tout le respect dû à leur "Vénérable". Par association inverse, la triste disparition de Xénia m'évoque la naissance jubilatoire de ce site... et, par association directe, la Vénérable X m'évoque un X Vénérable ! La clé de ce rébus ?
Il y a quelque temps, un Vénérable de ma confrérie, entendez un ingénieur général des Mines retraité depuis plusieurs lustres, m'abordait avec empressement dans un colloque : il souhaitait à tout prix m'inviter à participer à un séminaire qu'il comptait prochainement organiser, sur le thème "Pourquoi les études économiques n'ont-elles jamais connu à la Direction générales des télécommunications, puis à France Télécom, le si brillant essor dont EDF s'ennorgueillit à juste titre ?". Qu'une question aussi infondée fut soumise à un interlocuteur aussi bien choisi, sans que fut mesurée l'ampleur de la contradiction, ne pouvait être le fruit d'une simple coîncidence : il s'agissait bel et bien d'un symptôme !
D'où la genèse de ce site, né afin de déchirer le scotome scintillant de notre Vénérable, afin d'éclairer tous ceux qui, pris comme lui d'un étrange aveuglement, s'étonneraient ou se désoleraient d'un prétendu blanc économique dans la "bande des télécoms". Un mémorial numérique n'était sans doute pas inutile, pour rappeler ou faire connaître le patient travail d'une petite équipe d'économistes qui, dès le milieu des années 1970, a modélisé les coûts et la demande du service téléphonique, puis anticipé et guidé la libéralisation du secteur en France, enfin contribué à fonder l'analyse économique de la société numérique. Puisse le recueil des articles ici consignés témoigner que cette équipe, non seulement a existé dans la durée, mais encore n'a nullement à rougir devant le prestigieux service des études économiques générales d'Électricité de France !
6-11-2012. Shannon, roi de la jongle !
La rentrée littéraire 2012 a remis Shannon à la mode, avec le premier "roman" d'Aurélien Bellanger, intitulé "La théorie de l'information". Par pure clémence, accordons ici un non-lieu à cet étrange modèle de non-style. Certains veulent y voir plutôt un méta-style, une sorte de méta-roman, faisant mieux surgir le fond en effaçant complètement la forme. Si là est la prouesse, dans l'impasse totale de la forme, alors je préfère, quant à moi, me plonger directement dans Wikipedia ! Malgré tout le bien que je pense de ce "roman", j'y ai néanmoins fait une découverte : Shannon avait plusieurs cordes à son arc... et plusieurs balles en mains ! Le saviez-vous ? Le père de la théorie de l'information ne jonglait pas qu’avec des bits. Il s’exerçait aussi à l’occasion avec des balles et des quilles, qui lui inspirèrent le puissant théorème suivant.
Théorème fondamental de la jonglerie, du jonglage ou de la jongle
Soit M mains (M > 2 si plusieurs partenaires jonglent en équipe), jonglant avec N objets (N > M afin que jongler prenne tout son sens). Soit Ta le temps en l’air, durée pendant laquelle vole un objet entre deux prises en main successives ; soit Tv le temps de vacuité, durée pendant laquelle une main reste vide entre le lancer d’un objet et la réception du suivant ; soit enfin Tp le temps de prise, durée pendant laquelle une main tient un objet entre la réception et le lancer de celui-ci. Alors, en régime de jongle permanent, les cinq grandeurs M, N, Ta, Tv et Tp sont liées par l’équation fondamentale :
M.(Ta + Tp) = N.(Ta + Tv)
Curieux de connaître la démonstration de cette très simple et très jolie propriété, d'une application quotidienne... au moins dans les cirques ? Envie d'en savoir davantage sur ses importantes conséquences ? Cliquez ici !
4-11-2012. Free et low cost (suite du 13-10-2012)
Tous ne semblent pas partager mon bel enthousiasme à propos des vertus du modèle low cost et, surtout, à propos des mérites de Free ! Un ami économiste, dont je respecte ici le souhait d'anonymat, a réagi à mon précédent billet du 13-10-2012. La teneur de son commentaire me paraît digne d'être ici partagée et discutée.
En premier lieu, Free pratiquerait un low cost "un peu artificiel", en raison de son accord d'itinérance avec Orange, ce qui éloignerait le marché de l'optimum économique... Soit, pour l'artifice transitoire ! Mais, sinon par un tel accord, comment un nouvel opérateur mobile pourrait-il lancer son service, que celui-ci soit ou non low cost, dans la phase de démarrage où le déploiement de son réseau en propre est encore embryonnaire ? Le régulateur du secteur s'est, me semble-t-il, assuré que Free tient les engagements de sa licence en termes de déploiement et l'Autorité de concurrence n'a pas jusqu'ici, à ma connaissance, dénoncé un accord anticoncurrentiel !
Mon aimable contradicteur me rappelle, en second lieu, le niveau exceptionnel de la valorisation boursière d'Iliad, presque deux fois celle celle de Peugeot et Air France réunis, un niveau qui lui paraît démesuré au regard du poids de Free dans l'économie réelle, en termes d'investissement, d'emploi, comme de contribution à la balance extérieure du pays.
- Il y aurait là, tout d'abord, un signe de l'irrationalité des marchés financiers. Mais si, tout au contraire, les marchés se montraient en l'occurence lucides, en valorisant fortement une entreprise porteuse d'un renouveau managérial et économique ?
- Il y aurait là, ensuite, un effet pervers de la régulation économique du secteur (merci, l'ARCEP !) qui, après avoir stimulé depuis l'ouverture du marché des télécoms une concurrence par les infrastructures, plutôt qu'une concurrence par les services, aboutirait paradoxalement à valoriser le plus l'entreprise qui a investi le moins ! Le paradoxe me paraît ici provenir d'un certain biais dans la formulation de l'argument. Ne serait-il pas plus juste d'affirmer que l'heureuse conjonction d'une régulation favorable à l'investissement et d'une initiative privée dynamique, dont Free est l'un des acteurs importants mais évidemment pas unique, ont permis en quinze ans une transition réussie du monopole au marché ? La société Free, figure emblématique de cette transition, en récolte les fruits.
- Il y aurait là, enfin, un mal de l'économie à la française, qui, à travers la surprenante équation "Free = 2 x (Peugeot + Air France)", érigerait en "success story" une entreprise qui n'est ni industrielle, ni exportatrice ! Sur le premier aspect, difficile tout de même de dénier tout caractère industriel à Free et difficile, surtout, de s'étonner que les success stories d'aujourd'hui concernent des entreprises nées de la révolution numérique plutôt que des entreprises nées de la précédente révolution industrielle ! Et sur le second aspect, les marchés de télécommunications demeurant essentiellement nationaux, les opérateurs de réseaux, même lorsqu'ils sont par ailleurs implantés à l'étranger, écoulent leur offre sur le territoire national et ils ne sont donc pas directement exportateurs, contrairement à des fournisseurs de services ou de terminaux, comme Google ou Apple. Mon ami a donc raison : la success story de Free n'obéit pas au canon de beauté du modèle industriel et exportateur ! Mais alors, d'où provient-elle ?
Réponse : elle réside dans les effets externes, ou "externalités", dans notre jargon d'économistes ! On peut bien-sût discuter de l'importance de ces externalités mais on ne peut entièrement les nier : en innovant avec sa box, en abaissant les prix de l'ADSL, en lançant récemment des offres mobiles low cost, Free a libéré du pouvoir d'achat pour la consommation d'autres biens et services et il a suscité une consommmation pérenne de services télécoms au sein des couches les moins aisées de la population. Free n'est certes pas le seul à engendrer ces effets vertueux "et loin de là !", me souffle mon ami à l'oreille... mais reconnaissons que, bien souvent, il a montré la voie ! Free ne cible pas le marché professionnel et ne contribue donc pas à cet égard à la compétitivité du pays, me souffle-t-on encore ? Oui, c'est vrai, et on peut en revanche fortement se réjouir que certains de ses concurrents soient bien présents sur ce créneau !
Dernière remarque "qui tue" de mon interlocuteur : l'avance de la France sur l'ADSL n'ayant en définitive pas été à la source de beaucoup d'innovations, où se trouve véritablement la success story ? Là, pour le coup, le mal est bien français que celui de battre sa coulpe et de minimiser la réussite ! Je reformulerai quant à moi la remarque sous une version plus positive et proactive : grâce au dynamisme des opérateurs de réseau (et d'une régulation plutôt bien inspirée !), la France a construit et ne cesse de moderniser une "infostructure" fixe et mobile de très grande qualité : elle doit encore faire la preuve d'un égal dynamisme dans la création et le développement de services numériques, domaine dans lequel elle ne manque pas d'atouts.
3-11-2012. Quand le bonheur se prend les pieds dans la traîne !
Dans son récent essai « Homo economicus, prophète (égaré) des temps nouveaux », Daniel Cohen, quant à lui prophète éclairé (!), nous explique très clairement pourquoi l’argent ne fait pas le bonheur : si je deviens plus riche, je n’en tire intrinsèquement que peu de satisfaction, car mes besoins s’ajustent à ma prospérité accrue et, tout comme avant, je continue de jalouser les plus riches que moi, facteur d’une insatisfaction, profonde et persistante. Autrement dit, certains biens, dits extrinsèques, procurent une utilité qui dépend très peu de la quantité possédée, au contraire des biens « standards » dits intrinsèques, mais qui dépend beaucoup de l’écart entre la quantité possédée et celle que possèdent en moyenne ceux qui possèdent davantage.
Dans une société hyper-compétitive, les biens extrinsèques tendent à devenir la norme : ce qui « compte », ce n’est pas en soi – intrinsèquement – que je détienne beaucoup, mais que je détienne autant ou pas beaucoup moins que les plus pourvus que moi. Il en va ainsi du niveau de revenu, du nombre d’amis facebook, du buzz autour d’une vidéo YouTube, etc. Or cette course à la primauté, catalysée par l’hyper-médiatisation qui caractérise la société de l’information, n’est jamais gagnée : il y a toujours meilleur ou plus gros que moi et, si je progresse, la distance qui me sépare de la moyenne des meilleurs que moi ne se réduit pas, voire elle augmente en valeur absolue, voire même elle augmente en valeur relative ! Certes, je possède de plus en plus, certes mon rang s’améliore au sein de la « queue » des aspirants au succès, mais je ne suis pas pour autant plus heureux et le suis même de moins en moins, parce que l’horizon de ce que je considère comme la réussite ne cesse de fuir devant moi.
Afin d’inverser cette spirale vicieuse et auto-réalisatrice, Daniel Cohen préconise un « recentrage » sur des « valeurs » intrinsèques, dont la quantité – et surtout la qualité sont appréciées pour elles-mêmes, en dehors de toute « performance » et donc de toute comparaison aux performances d’autrui : ainsi de la fréquentation de sa famille et de ses amis sur un mode on-live et non pas on-line ; ainsi de la lecture de bons livres ; ainsi de la recherche d’un « flux » permanent de sérénité, plutôt que la quête de « pics » de plaisir !
À quoi ressemble la distribution statistique d’une grandeur extrinsèque, par exemple le revenu mensuel au sein d’une population de salariés, ou encore la fréquentation en nombre de clics au sein d’une population de sites web ? Réponse : à une robe de mariée, avec une longue traîne ! Pourquoi ? Parce que, aussi élevée soit une référence fixée de revenu ou de fréquentation, les salariés ou les sites qui dépassent la barre fixée s’étalent tellement au-delà, qu’ils l’excèdent en moyenne de beaucoup. D’où notre titre en forme d’adage matrimonial : la longue traîne ne fait pas le bonheur ! Et, maintenant, n’en déplaise à la mariée et seulement pour les témoins éclairés, place à la formalisation mathématique !