Mai-Juin 2013

28 juin 2013. Inventing the Internet

Cette semaine, l'informaticien français Louis Pouzin, polytechnicien de la promotion 1950, a reçu des mains de la souveraine britannique le "Queen Elizabeth Prize for Engineering", en partage avec Robert Kahn, Vinton Cerf, Tim Berners Lee et Marc Andreessen. Ce prix récompense ses travaux pionniers, notamment l'invention du datagramme, ayant conduit à la création d'Internet. À cette occasion, l'Institut français du Royaume Uni et l'Association des anciens élèves de l'École Polytechnique (AX) ont organisé le 26 juin à Londres, autour de Louis Pouzin, une table ronde intitulée "Inventing the Internet" à laquelle j'ai participé.

Lire ici le texte de mon intervention


 

23 juin 2013. Solving or kissing ?

Il existe deux attitudes face à l’action. L’attitude « problem solving » consiste à considérer la décision à prendre comme la solution d’un problème : une fois le problème posé, l’action optimale s’en déduit par la puissance du raisonnement, appliquée à la résolution du problème. L’attitude « frog kissing », quant à elle, consiste à considérer la décision à prendre comme le moyen de réaliser son vœu, d’engendrer la réussite par la seule volonté de réussir, à la manière de la princesse de conte de fées embrassant un crapaud d’où, nécessairement, naîtra son prince : une fois le vœu formé, la décision en découle comme une « évidence », et non comme le fruit d’une délibération rationnelle. La différence entre ces deux attitudes correspond très exactement à celle que le philosophe Emmanuel Kant établit entre l’impératif hypothétique et l’impératif catégorique : un décideur hypothétique pèse savamment le pour et le contre et détermine son comportement en comparant les conséquences des différentes options ouvertes ; un décideur catégorique, tout au contraire, « sait » immédiatement ce qu’il doit faire et il le fait sans hésitation ni regret, car c’est là pour lui la seule voie du succès.

Lire ici la totalité du billet


 

20 juin 2013. Homo numericus

L’homo numericus, mascotte des rencontres 2013 de la Mêlée numérique, ce superman dont le cœur bat, sous son torse bleu, à la fréquence du Wifi, est-il un mutant appelé à succéder à l’homo sapiens, tout comme ce dernier a détrôné l’homo erectus il y a quelque deux cent mille ans, lui-même tombeur de l’homo habilis il y a deux millions d’années ? Je doute qu’aucun paléoanthropologue digne de ce nom y croie sérieusement ! En revanche, sans mettre un terme au règne de l’homo sapiens et, à défaut d’initialiser une nouvelle espèce, l’homo numericus peut raisonnablement être vu comme un homo faber de dernière génération ; le terme homo faber ne désignant pas ici un maillon de la lignée humaine, mais la capacité de l’homme, sans cesse accrue, à fabriquer des outils en vue d’agir sur la matière. Après l’âge de la pierre, puis ceux du cuivre, du bronze et du fer, voici aujourd’hui venu celui du silicium : l’homo numericus ne serait-il donc, en définitive, rien d’autre qu’un homo faber 5G ? ....

Lire ici la totalité de mon intervention à la Mêlée numérique


13 juin 2013. Le paradoxe de Newcomb

Vous venez de pénétrer dans l’antre du grand devin Caruso Celinni, dont aucune prédiction n’a jusqu’ici été mise en défaut. Ce devin, dont vous êtes, je l’espère, bien convaincu de l’omniscience et donc de la préscience, s’adresse à vous en ces termes :

- « Salut à toi, étranger, qui pour moi ne l’est pas ! Tu vois là, devant toi, deux boîtes : l’une est fermée et l’autre, ouverte. Ainsi que tu le constates, la boîte ouverte contient un chèque de 1000 €. La boîte fermée, disons la boîte-mystère, contient peut-être du papier journal… ou bien peut-être un chèque de 1 000 000 €. Cela dépend de ce que je SAIS et cela dépend aussi de ce que tu FERAS. Je ne te dirai pas ce que je SAIS, mais seulement ceci : peut-être SAIS-je que tu vas sortir d’ici en emportant les deux boîtes, auquel cas j’ai placé, avant ta venue, du papier journal dans la boîte-mystère ; ou bien peut-être SAIS-je que tu n’emporteras que la boîte-mystère en abandonnant la boîte ouverte et les 1000 € qu’elle contient, auquel cas j’ai placé 1 000 000 € dans la boîte-mystère. C’est tout, j’en ai terminé. Libre maintenant à toi de faire ce que bon te semble : partir avec les deux boîtes, ou bien partir avec seulement la boîte-mystère. Quel est ton choix, étranger qui m’est transparent ? »

Alors, partez-vous avec seulement la boîte-mystère ou avec les deux boîtes ? Êtes-vous « monopuxiste » ou « dipuxiste » (de πuξισ, la boîte, en grec ancien) ? Réfléchissez bien avant de donner votre réponse et, n’oubliez pas : le devin Caruso ne se trompe jamais !

Pendant que vous réfléchissez, sachez que ce puzzle, connu sous le nom de paradoxe de Newcomb, a été publié et analysé pour la première fois en 1969, par le philosophe américain Robert Nozick, professeur à Harvard. Nozick attribue toutefois la paternité du problème à un certain William Newcomb, professeur de physique théorique à l’université de Californie. Le flou certain (un oxymore !) qui règne dans la rédaction de la notice Wikipédia de ce mystérieux savant, peut néanmoins laisser penser qu’il s’agit d’un vaste canular, que Nozick aurait facétieusement monté de toute pièce. Jean-Pierre Dupuy, philosophe français contemporain dont la réalité est, quant à elle, incontestée… et que le paradoxe de Newcomb habite depuis des décennies, en est en tout cas intimement persuadé. C’est d’une discussion avec ce dernier, complétée par la lecture de ses textes lumineux sur temporalité, prédestination et libre arbitre, qu’est née la présente fantaisie, en forme d’un jeu-test de magazine.

Alors, y êtes-vous ? Prenez-vous les deux boîtes, ou seulement la boîte-mystère ?

Lire ici tout le texte


2 juin 2013. La loi de Newcomb-Benford

Accepteriez-vous de jouer avec moi au jeu suivant ? Dans la dernière édition du Wall Street Journal, extrayons ensemble « au hasard » mille données chiffrées, portant sur les cours de bourse, les taux d’intérêt, les taux de change, etc., et ne retenons, pour chaque donnée élémentaire, que son premier chiffre significatif : c’est-à-dire le premier chiffre à gauche, si la donnée est un nombre supérieur à 1 ; ou le premier chiffre non nul placé après la virgule, si la donnée est inférieure à 1. Chaque fois que ce premier chiffre significatif est un 1, un 2 ou un 3, vous me payez un euro, et chaque fois que c’est un 4, un 5, un 6, un 7, un 8 ou un 9, alors c’est moi qui vous paye un euro. Je vous sens partant ! Avec six chiffres gagnants en votre faveur, contre seulement trois pour moi, vous pensez sans doute « raisonnablement » gagner dans environ 60% des cas, contre 40% pour moi, et donc empocher à peu près 20% x 1000 = 200 € à la fin de notre partie ! C’est étrange, parce que, de mon côté, je me garderais bien de vous décourager de jouer… ayant le pressentiment exactement inverse du vôtre, selon lequel c’est moi, et non pas vous, qui vais empocher les 200 €. Vous ne me croyez pas ? Libre à vous ! Alors, soit, jouons !

Une heure plus tard… Vous avez perdu et vous n’en revenez pas ? Vous estimez que j’ai bénéficié d’une chance extraordinaire, défiant toute loi admissible du hasard ? Détrompez-vous : cette issue du jeu était, tout au contraire, de très loin la plus probable et elle se reproduirait systématiquement, si nous rejouions un très grand nombre de fois, à partir de corpus de données très divers : avec cette édition ou une autre du Wall Street Journal ; avec un quelconque journal financier, européen, américain ou japonais, les montants monétaires y étant exprimés en euros, en dollars ou en yens ; ou encore, avec un manuel de géographie recensant la longueur des fleuves et la superficie des lacs ; ou encore, avec un traité d’astronomie où trônent les masses des étoiles et les distances entre galaxies ! À chaque fois, le 1, le 2 ou le 3 sortirait dans 60% des cas comme premier chiffre significatif et, in fine, vous me paieriez invariablement 200 €. Si vous poursuivez votre lecture jusqu’au terme de ce texte, alors vous comprendrez pourquoi l’occurrence du chiffre p comme premier chiffre significatif d’une donnée quelconque, que celle-ci soit extraite d’un journal financier, d’une table d’actuaires ou d’un ouvrage scientifique, est un évènement dont la probabilité, c’est-à-dire la fréquence, est une fonction P(p) décroissante de p, ayant pour expression :

P(p) = log10(p+1) - log10 p = log10(1 + 1/p)

En particulier, on a P(1) ≈ 30% et P(9) ≈ 5% : le 9 a ainsi six fois moins de chance que le 1 de sortir comme premier chiffre significatif ! Par ailleurs, P(1) + P(2) + P(3) ≈ 60%, d’où ma botte gagnante, dans le jeu biaisé que je vous ai hardiment proposé ! Telle est l’étonnante loi de probabilités dite loi de Newcomb–Benford , loi discrète définie sur l’ensemble numéral {1, 2,…,9}.

Pourquoi, de manière si surprenante, les premiers chiffres du système de numération décimale sont-ils de bien meilleurs candidats que les chiffres suivants, pour figurer comme premiers chiffres significatifs au sein d’une liste de données ? Pourquoi, contrairement à l’attente « naturelle », chaque chiffre de 1 à 9 n’a-t-il pas exactement la même probabilité, soit 1/9, d’apparaître au premier des rangs significatifs ? Répondre à ces questions et ainsi délimiter le champ de validité de la loi de Newcomb-Benford nécessite une réflexion préalable sur la structure des données statistiques extraites d’univers aussi variés que l’économie, la géographie, la physique, la biologie etc., ainsi que sur la nature profonde des grandeurs sous-jacentes que mesurent ces données.

Toutefois, avant de se livrer à une analyse formalisée, une remarque liminaire n’est pas inutile à ce stade. Imaginez que je vous propose maintenant le même jeu que précédemment, à un léger détail près : les données seront extraites, non pas d’un journal financier, mais du fichier de la police où sont consignées les tailles des prévenus, exprimées en mètres. Imaginez que je vous promette cette fois de vous verser un euro chaque fois que le premier chiffre significatif d’une donnée de cette liste est 2, 3, 4, 5, 6, 7, 8 ou 9, ne me réservant personnellement que le chiffre 1 comme unique chiffre gagnant. Acceptez-vous encore de jouer contre moi ? Je suis presque sûr que non, certain que vous êtes que très peu de prévenus – un euphémisme – mesuraient moins d’un mètre ou plus de deux mètres au moment de leur arrestation ; conditions qui seraient pourtant nécessaires pour que le premier chiffre significatif de leur taille en mètres ne soit pas 1 et que vous puissiez empocher le moindre euro !

Le hasard est rarement uniforme, sauf lorsqu’on l’y force artificiellement, comme dans le cas d’une roue de loterie ou du jeu de loto ; le plus souvent, le hasard est comme « guidé » par les propriétés structurelles des variables aléatoires qui nous le donnent à « voir », à travers les données statistiques qu’elles engendrent. Ce que révèlent les deux variantes de notre jeu, celle avec des données financières et celle avec des donnés biométriques, c’est que l’esprit humain semble mieux cerner la structure intime du hasard lorsque ce dernier résulte d’une variable dont l’échelle est contrainte, comme la taille ou le poids, que lorsqu’il résulte d’une variable sans ordre de grandeur fixé a priori, comme un indicateur financier. Êtes-vous maintenant disposé à élucider cette question jusque dans ses ultimes tréfonds ? 

Lire ici tout le texte


3 Mai 2013. Les TIC et la ville

J'interviendrai le 5 Juin au salon annuel de la Mêlée numérique, organisé à Toulouse par l'association La Mêlée, fédératrice des acteurs de l'économie numérique en Midi-Pyrénées. Dans cette perspective, j'ai été interviewé hier par Chantal Delsouc, rédactrice en chef de MID e-news, sur l'apport des TIC à l'urbain, l'innovation dans la ville, la protection des données personnelles.

Lire ici l'interview

Informations supplémentaires