La Théorie de l’Information de Claude Shannon

“Je sais que j’ai été compris lorsqu’on m’a répondu” Claude Shannon

Publié en 1948, l’article “A Mathematical Theory of Communication” de Claude Shannon propose de modéliser certains des concepts clés de l’information et de la communication. Nous sommes à l’issue de la seconde guerre mondiale. Le radar a prouvé son utilité, Enigma est résolue. Alors que des médias tels que la radio et la télévision rencontrent un large succès, que des moyens de télécommunication tels que le téléphone se développent, les travaux de Shannon et de quelques autres mathématiciens  vont conduire à la mise au point des premiers ordinateurs. Mais la théorie de Shannon s’avère remarquablement générale et protéiforme. Elle va notablement influencer des disciplines qui restent à être inventées telles que la robotique, l’intelligence artificielle ou la biologie moléculaire et cellulaire et contribuer significativement à l’amélioration des méthodes d’échange de l’information. Ce billet propose en commémoration du centenaire de la naissance du théoricien une courte biographie, une traduction de l’introduction de l’article ainsi que quelques idées générales sur l’information.

Claude Shannon (1916-2001)

shannon

Après un double “Bachelor of Science” en mathématiques et en génie électrique, Shannon est embauché à temps partiel en 1936 en tant que chercheur assistant au département de génie électrique du MIT (Massachusetts Institute of Technology) sous la direction de Vanevar Bush. Shannon manipule “l’analyseur différentiel” qui était le calculateur analogique le plus avancé de l’époque, capable de résoudre des équations différentielles du sixième degré. Son mémoire de master soutenu en 1938 “A Symbolic Analysis of Relay and Switching Circuits” montre que des arrangements de relais permettent de résoudre des problèmes d’algèbre booléenne, que des machines électriques peuvent faire des opérations logiques, ouvrant la voie à la création de calculateurs d’une nouvelle génération. Shannon obtient simultanément en 1940 un master de science en Génie électrique et un doctorat (PhD) en Mathématiques sur un sujet de Génétique des populations “An Algebra for Theoretical Genetics”. Il devient membre de l’“Institute for Advanced Study” à Princeton et croise occasionnellement en ces lieux des scientifiques de renom tels que Hermann Weyl, John von Neumann, Albert Einstein et Kurt Gödel. Shannon travaille ensuite à partir de 1940 aux laboratoires Bell réputés au niveau mondial dans le domaine des télécommunications. Il prend le thé en 1943 avec le mathématicien et cryptographe Alan Turing, détaché pour quelques mois de Bletchley Park. Turing théorise depuis 1936 une machine à calculer universelle et améliore des machines électromécaniques dédiées à la cryptanalyse. Dès 1945, la publication longtemps classée de Shannon “A Mathematical Theory of Cryptography” est remarquée des spécialistes. En 1948, les laboratoires Bell nomment “transistor” leur dernière invention destinée à remplacer les relais dans les circuits logiques. La même année, Norbert Wiener, professeur de mathématique au MIT publie “Cybernetics: Or Control and Communication in the Animal and the Machine”, en collaboration avec Shannon pour le chapitre 6. En juillet 1948, Shannon publie la première partie de l’article : “A Mathematical Theory of Communication” dans la revue Bell System Technical Journal. La deuxième partie est publiée en octobre de la même année.

Dans le but d’optimiser les systèmes de transmission ainsi que le fonctionnement des calculateurs, une théorie de la transmission de l’information est proposée. Les objectifs sont de trouver des méthodes qui permettent d’améliorer l’efficacité des communications, d’optimiser la quantité d’information transmise dans des canaux dont la capacité est limitée et qui génèrent du bruit. Parmi ses aspects novateurs, l’article définit le bit (binary digit ou chiffre binaire) comme l’unité élémentaire de l’information. Un modèle générique est proposé qui rend compte de la transmission de l’information quelque soit son type : information discrète, continue ou mixte. Le cas de l’information discrète avec et sans bruit est développé en première partie, aboutissant à la démonstration de multiples théorèmes illustrés d’exemples. Le calcul de l’entropie dite de Shannon est encore proposé. Cet indicateur permet de caractériser de manière statistique la quantité maximale d’information qu’il est possible de transmettre dans un canal. La formulation retenue – une fonction pondérée du logarithme de la probabilité de réception d’un signal – répond à la même équation que l’entropie de Boltzman, une grandeur établie dans le contexte de la thermodynamique. Une même formule mathématique permet de décrire de manière statistique la dissipation de l’énergie dans un système et la transmission de l’information dans un canal. De manière simplifiée et quelque peu intuitive, l’entropie caractérise le niveau de “désordre” d’un système, le niveau de variation potentielle des signaux constitutifs d’un message, l’hétérogénéité du signal, calcule l’incertitude moyenne de réception d’un signal. Plus l’entropie d’un signal discret est élevée, plus la quantité d’information susceptible d’être transmise de manière concise est importante.

Le caractère multidisciplinaire de l’information et de la communication inspire alors de nombreux scientifiques de différentes spécialités : Shannon devient le fondateur de la “Théorie de l’Information”. Il  assiste en 1950, 1951 et 1953 aux conférences de la fondation Macy à l’origine de la  cybernétique. Ces événements réunissent des scientifiques américains autour de personnalités comme Wiener et Von Neumann. On y discute de modèles d’action et de processus de décision qui concernent aussi bien les machines à calculer, que la neurophysiologie ou la psychologie. Wiener développe les concepts de “boîte noire” et de “feedback » – rétroaction en français. Ce mouvement de pensée dont l’intérêt relève de l’histoire des sciences influencera notablement les scientifiques de cette époque, accompagnant l’émergence de la biologie moléculaire et cellulaire, de la psychophysique, des sciences cognitives, de l’intelligence artificielle ou de l’informatique.

shannon-bit

Un doigt levé ou baissé, un interrupteur ouvert ou fermé, une pièce positionnée coté pile ou face, constituent des exemples simples d’unité atomique de l’information et nommé bit ou binary-digit (signal binaire) par Shannon et JW Tukey.

A Mathematical Theory of Communication” est publié dans “The Bell System Technical Journal” en juillet et octobre 1948. Une traduction de l’introduction est ici proposée.


A Mathematical Theory of Communication” : Traduction de l’introduction

Le récent développement de diverses méthodes de modulation telles que la PCM (modulation d’impulsion codée) et la PPM (modulation en position d’impulsions) qui échangent de la bande passante contre du rapport signal-bruit a intensifié l’intérêt d’une théorie générale de la communication. Une base d’une telle théorie se trouve dans les articles importants de Nyquist et Hartley à ce sujet. Dans le présent article, nous étendrons la théorie pour inclure un certain nombre de nouveaux facteurs, en particulier l’effet du bruit dans le canal, et les économies possibles dues à la structure statistique du message original et dues à la nature de la destination finale de l’information.

Le problème fondamental de la communication est celui de reproduire en un point, soit exactement soit approximativement un message sélectionné à un autre point. Fréquemment, les messages ont une signification; c’est à dire qu’ils se réfèrent à ou sont corrélées avec certains systèmes, avec certaines entités physiques ou conceptuelles. Ces aspects sémantiques de la communication ne relèvent pas du problème de l’ingénierie. L’aspect important est que le message réel est un élément choisi parmi un ensemble de messages possibles. Le système doit être conçu pour fonctionner pour chaque sélection possible, pas seulement celle qui sera effectivement choisie car celle ci est inconnue au moment de l’envoi.

Si le nombre de message dans l’ensemble est fini alors ce nombre ou toute fonction monotone de ce nombre peut être considéré comme une mesure de l’information produite quand un message est choisi parmi un ensemble, tous les choix étant équiprobables. Comme l’a souligné Hartley le choix le plus naturel est la fonction logarithmique. Bien que cette définition doive-t-être généralisée considérablement lorsque l’on considère l’influence des statistiques du message et lorsque nous avons une gamme continue de messages, nous allons utiliser dans tous les cas une mesure essentiellement logarithmique.

La mesure logarithmique est plus commode pour diverses raisons:

  1. Elle est plus utile de manière pratique. Des paramètres d’importance en ingénierie tels que le temps, la bande passante, le nombre de relais, etc., ont tendance à varier linéairement avec le logarithme du nombre de possibilités. Par exemple, l’ajout d’un relais à un groupe double le nombre d’états possibles des relais. On ajoute 1 au logarithme en base 2 de ce chiffre. Un doublement du temps multiplie au carré le nombre des messages possibles, ou double le logarithme, etc.
  2. Il est plus proche de notre sens intuitif que de la mesure elle-même. C’est étroitement liée à (1) puisque nous mesurons intuitivement les entités en comparaison linéaire avec les standards communs. On ressent, par exemple, que deux cartes perforées doivent avoir deux fois la capacité d’une seule pour le stockage de l’information, et deux canaux identiques deux fois la capacité d’un seul pour transmettre l’information.
  3. Elle est mathématiquement plus appropriée. Un grand nombre d’opérations critiques sont simples en termes de logarithme mais exigeraient autrement un retraitement maladroit en terme de nombre de possibilités.

Le choix d’une base logarithmique correspond au choix d’une unité de mesure de l’information. Si la base 2 est employée, les unités qui en résultent peuvent être appelées digits binaires, ou plus brièvement bits [binary digits], un mot suggéré par JW Tukey. Un dispositif à deux positions stables, comme un relais ou un circuit à bascule, peut stocker un bit d’information. Un nombre N de tels dispositifs peut stocker N bits, puisque le nombre total d’états possibles est 2N et log22N = N. Si la base 10 est utilisée, les unités peuvent être appelées chiffres décimaux. Puisque

log2 M = log10 M / log10 2 = 3.32 log10 M,

un chiffre décimal correspond approximativement à 3 ⅓ bits. Une roue à chiffres sur une machine à calculer de bureau a dix positions stables a donc une capacité de stockage d’un chiffre décimal. Dans les travaux analytiques dans lesquels l’intégration et le calcul différentiel sont impliqués, la base e est parfois utile. Les unités d’information résultantes seront appelées unités naturelles. Un changement de la base a en base b exige simplement une multiplication par logb a.

Par un système de communication, nous entendrons un système du type de celui indiqué schématiquement dans la Fig. 1. Il est constitué essentiellement de 5 parties:

  1. Une source d’information qui produit un message ou une suite de messages destinés à être communiqués au terminal récepteur. Le message peut être de différents types: par exemple (a) Une séquence de lettres comme dans un système de type télégraphe ou télétype; (b) Une simple fonction du temps f(t) comme dans la radio ou la téléphonie; (c) Une fonction du temps et d’autres variables comme avec la télévision noir et blanc – ici le message peut être pensé comme une fonction f(x;y;t) de deux coordonnées spatiales et du temps, l’intensité lumineuse au point (x;y) et au temps t sur la plaque du tube de récupération; (d) Deux ou plusieurs fonctions du temps, disons f(t), g(t), h(t) – c’est le cas dans le système de transmission du son en trois dimensions ou si le système est destiné à desservir plusieurs canaux individuels en multiplex. (e) plusieurs fonctions de plusieurs variables – avec la télévision couleur, le message consiste en trois fonctions f(x,y,t), g(x,y,t), h(x,y,t) définies dans un continuum tridimensionnel – nous pouvons aussi penser à ces trois fonctions comme des composantes d’un champs vecteur défini dans la région – de même, plusieurs sources de télévision en noir et blanc produiraient des « messages » constitués d’un certain nombre de fonctions de trois variables; (f) Diverses combinaisons se produisent également, par exemple pour la télévision avec une voie audio associée.
  2. Un émetteur qui intervient sur le message de manière quelconque pour produire un signal approprié à la transmission sur le canal. Dans la téléphonie cette opération consiste simplement à changer la pression sonore en un courant électrique proportionnel. Dans la télégraphie nous avons une opération d’encodage qui produit une séquence de points, de tirets et d’espaces sur le canal correspondant au message. Dans un système de multiplex PCM les différentes fonctions de la parole doivent être échantillonnées, comprimées, quantifiées et encodées, et finalement entrelacées convenablement pour construire le signal. Systèmes Vocoder, télévision et modulation de fréquence sont d’autres exemples d’opérations complexes appliquées au message pour obtenir le signal.
  3. Le canal est simplement le moyen utilisé pour transmettre le signal de l’émetteur au récepteur. Cela peut être une paire de fils, un câble coaxial, une bande de fréquences radio, un faisceau de lumière, etc.
  4. Le récepteur effectue habituellement l’opération inverse de celle effectuée par l’émetteur, reconstruisant le message à partir du signal.
  5. La destination est la personne (ou une chose) à laquelle le message est destiné.

shannon-modelNous souhaitons considérer certains problèmes généraux impliquant des systèmes de communication. Pour ce faire, il est d’abord nécessaire de représenter les différents éléments impliqués comme des entités mathématiques, convenablement idéalisées à partir de leurs équivalents physiques. Nous pouvons grossièrement classer les systèmes de communication en trois catégories principales : discret, continu et mixte. Par un système discret, nous entendons celui dans lequel le message et le signal à la fois sont une séquence de symboles discrets. Un cas typique est la télégraphie dans lequel le message est une séquence de lettres et le signal une séquence de points, de tirets et d’espaces. Un système continu est celui dans lequel le message et le signal sont tous deux traités comme des fonctions continues, par exemple, avec la radio ou la télévision. Un système mixte est celui dans lequel des variables discrètes et continues apparaissent, par exemple, la transmission de la parole en PCM.

Nous considérons d’abord le cas discret. Ce cas présente des applications non seulement dans la théorie de la communication, mais aussi dans la théorie des calculateurs, dans la conception des échanges téléphoniques et dans d’autres domaines. De plus, le cas discret constitue une base pour les cas continus et mixtes qui seront traités dans la seconde moitié du papier.

[…]


A Mathematical Theory of Communication” : le plan

Introduction, p379, fig. 1

Partie I : Systèmes discrets sans bruit
  1. Le canal discret sans bruit, p382, théorème 1, fig. 2
  2. La source discrète d’information, p384
  3. Des séries d’approximations de l’anglais, p388
  4. Représentation graphique d’un processus de Markoff, p389
  5. Sources ergodiques et mixtes, p390, fig. 3, 4, 5
  6. Choix, incertitude et entropie, p392, fig. 6, théorème 2, fig. 7
  7. L’entropie d’une source d’information, p396, théorème 3, théorème 4, théorème 5, théorème 6
  8. Représentation des opérations d’encodage et de décodage, p399, théorème 7, théorème 8
  9. Le théorème fondamental pour un canal sans bruit, p401, théorème 9
  10. Discussion, p403
  11. Exemples, p404
Partie II : Le canal discret avec bruit
  1. Représentation d’un canal discret avec bruit, p406
  2. Équivoque et capacité d’un canal, p407, théorème 10, fig. 8
  3. Le théorème fondamental pour un canal discret avec bruit, p410, théorème 11, fig. 9, fig. 10
  4. Discussion, p413
  5. Exemple d’un canal discret et de sa capacité, p415, fig. 11
  6. La capacité du canal dans certains cas spéciaux, p416, fig. 12
  7. Un exemple d’encodage efficace, p418
Appendice 1 : La croissance du nombre de blocs de symboles en condition d’état fini, p418
Appendice 2 : Dérivation de H, p419
Appendice 3 : Théorèmes sur les sources ergodiques, p420
Appendice 4 : Maximisation de la fréquence dans un système avec contraintes, p421

(à suivre)

Partie III : Préliminaires mathématiques, p623

18. Groupes et ensembles de fonctions, p623

19. Ensembles de fonctions limitées par la bande, p627

20. Entropie d’une distribution continue, p628

21. Perte d’entropie dans les filtres linéaires, p633, tableau 1

22. Entropie de la somme de deux ensembles, p635

Partie IV : Le canal continu, p637

23. La capacité d’un canal continu, p637

24. La capacité d’un canal avec une limitation de puissance moyenne, p639

25. La capacité du canal avec un pic de limitation de puissance, p642

Partie V : La fréquence pour une source continue, p646

26. Fidélité des fonctions d’évaluation, p646

27. La fréquence de la source en fonction d’une évaluation de la fidélité, p649

28. Le calcul des fréquences, p650

Remerciements, p652
Appendice 5, p652
Appendice 6, p653
Appendice 7, p655

A Mathematical Theory of Communication” : Figure 7

shannon-entropy

Dans le cas d’une information discrète à 2 valeurs en absence de bruit, l’entropie présente plusieurs propriétés intéressantes qui justifient son calcul. L’entropie représente en quelque sorte la richesse en information d’un message. Soit un message constitué d’une suite de 0 et de 1, c’est lorsque la fréquence des 0 est statistiquement égale à celle des 1 que l’entropie et la quantité d’information susceptible d’être transmise sont maximales. Si un message ne contient que des 0 ou que des 1, son entropie est nulle et il ne transmet aucune information. De manière analogue, la colonne d’une table de données qui contient toujours la même information n’apporte aucune information et est inutile à l’ensemble. Le calcul de l’entropie peut être étendu à des systèmes discrets comportant un plus grand nombre de valeurs comme dans le cas du morse, de l’alphabet ou de l’ADN par exemple.

A Mathematical Theory of Communication” : Figure 8

shannon-correction

En présence de bruit, Claude Shannon envisage la présence d’un observateur susceptible de corriger les données transmises de manière incorrecte. De manière pratique, sur les réseaux téléphoniques, la voie reste souvent compréhensible même en présence de bruit. Sur internet, l’observateur et la cible du message sont identiques. On s’assure de l’intégrité de transmission d’un fichier, par exemple, en calculant la somme de contrôle du fichier réceptionné et en la comparant avec la version d’origine, effectuant ainsi une sorte d’auto-rétroaction.

Commentaires et élucubrations

L’approche de Shannon pour modéliser l’information intrigue au premier abord : il ne s’intéresse pas au sens de l’information mais il modélise uniquement le signal et le bruit, la transmission et la perception par un « récepteur ». Il ignore la sémantique. La théorie de la communication (titre de l’article) est en fait une théorie de la transmission de l’information. L’article est relatif à la télécommunication dans son aspect physique statistique. Pour Shannon, l’information est ce qui permet de résoudre l’incertitude relative à la transmission d’un signal. L’entropie permet de calculer l’incertitude moyenne de la réception.

Mais qu’est ce que l’information au sens commun? Une analogie est souvent faite entre l’information et la matière fluide, voire gazeuse. On parle ainsi de source d’information, de canal, de flux, de lacs de données et de torrents de bits. L’amélioration du débit internet rend possible l’apparition de l’informatique en nuage. Ces plaisantes métaphores font référence à la nature dynamique de l’information. Mais en fait l’information ne relève pas de la mécanique des fluides, elle est de nature immatérielle, résulte de l’émission et de la réception de signaux véhiculant un message. On distingue classiquement l’information orale de l’information écrite qui nécessite un support pour exister : la pierre, le papier, la toile. Les mémoires informatiques telles que les cartes perforées, les mémoires magnétiques ou les mémoires flash permettent l’enregistrement d’informations de toutes sortes. L’information, mémorisée ou non, ne présente un intérêt que si elle est transmise. Si elle est mémorisée ou transmise à l’aide de machines, alors l’information peut être quantifiée.

L’efficacité de l’information dépend étroitement d’un environnement physique particulier. Sa perception est liée aux aspects sensoriels du « récepteur » : sensibilité aux ondes sonores, visuelles ou électromagnétiques, sensibilité aux molécules chimiques ou biochimiques. Le caractère conscient ou inconscient, la valeur que l’homme et la société attribuent aux informations sont des paramètres qui modifient la perception. De ces éléments dépend le fait que les infos soient transformées en connaissances, et servent à l’homme. Des questions morales, éthiques, déontologiques et légales sont fréquemment liées à l’émission et au traitement de l’information.

L’étymologie du mot « information » indique : dérivé de la racine latine « informatio » dont le sens est « ce qui donne forme à l’esprit », « ce qui instruit », « ce qui enseigne », « ce qui discipline ».  Le mot « information » est employé dans une variété de contextes. Le concept s’avère central dans des domaines aussi divers que la génétique, la culture ou les technologies. L’information ou son traitement est souvent associé à des termes polysémiques tels que « réplication », « transcription », « traduction », « mutation », « polymorphisme », « cycle de vie », « patrimoine », « identité » et « évolution ». Ainsi, patrimoine peut désigner à la fois le « patrimoine génétique » dans le cas d’espèce animales et végétales menacées, « patrimoine culturel » ou bien « patrimoine numérique ». L’identité peut être génétique, culturelle ou numérique. L’évolution peut être biologique, culturelle ou technologique. Les contextes vont de la documentation, en passant par la linguistique, le journalisme, la publicité, l’édition, l’informatique ou la biologie. L’information au sens commun peut encore changer de support ou de canal tout en restant identique. La même information peut être lue dans un journal ou vue à la télévision par exemple.

Shannon prend en quelque sorte le contre-pied du sens traditionnel pour définir l’information. Il ne s’agit pas de donner forme mais de résoudre une incertitude. Il s’affranchit ainsi du message transmis et de sa signification pour raisonner au niveau statistique et technique. En définissant le bit (0 ou 1, oui ou non), il rend quantifiable l’information en la liant à la logique. Celle-ci devient alors un objet qu’il est possible de mesurer tout autant que l’énergie, la masse, le temps, la distance ou que d’autres paramètres physiques moins prestigieux. Le bit peut alors servir de base de mesure unique pour des fonctionnalités de calcul, de mémorisation ou bien de transmission de l’information.

“Information is the resolution of uncertainty” Claude Shannon

Shannon propose ensuite le « diagramme schématique d’un système général de communication », figure 1, qui s’avère assez général, utilisé dans une multitude de domaines.

Dans son article, Shannon limite son raisonnement au cas de la transmission de l’information par les outils électriques de son époque : télégraphe, téléphone, radio, télévision. Il s’agit de transmettre un signal caractérisé par une langue, un message, des mots et des lettres, en présence de bruit. Ces éléments peuvent être analysés statistiquement. Des analyses de fréquence permettent de calculer l’entropie. Cet indicateur statistique fournit des renseignements sur la variabilité des composantes, sur le niveau d’ordre ou de désordre constitutif d’un message. Le calcul de l’entropie présente quelques intérêts pratiques dans des domaines autres que les télécommunications. Ainsi, dans le domaine de l’intelligence artificielle, les algorithmes génétiques permettent de trouver des solutions optimales dans un environnement contraint. Il s’agit d’augmenter l’entropie en introduisant des « mutations » et d’analyser l’adaptation aux contraintes obtenue. Au contraire, dans des algorithmes de classification automatique, il convient de minimiser de manière informatique l’entropie intra-classe pour faire émerger des classes homogènes. Les écologues utilisent encore l’entropie pour mesurer la diversité des espèces dans un écosystème, les sociologues utilisent l’indice de Theil fondé sur l’entropie pour mesurer la diversité des revenus dans une population.

Les relations entre l’entropie de Shannon, et l’entropie de Boltzman ont été étudiées par différentes personnalités scientifiques. Précédant Shannon de quelques années, Erwin Shrödinger dans “What is life” (1944) introduit la notion d’entropie négative ou néguentropie caractéristique de la nature de la vie,  des effets et des actions des êtres vivants. Léon Brilloin tente de démontrer dans son livre “Naissance de la théorie de l’information” (1953) l’équivalence entre l’entropie de Botzman et celle de Shannon. Pour Shannon, l’entropie est un outil statistique qui permet de caractériser le niveau d’organisation d’un message d’information. Il est encore plus que cela, une information mythique en relation avec la 2ème loi de la thermodynamique que semble défier le vivant.

ADN et biologie

Qu’en est il du vivant et de l’ADN constitué de 4 base nucléiques formant une information de caractère discret ? La célèbre molécule découverte en 1953 par Watson et Crick auxquels il est sans doute possible d’associer Rosalind Franklin constitue en effet le support d’une information tout à fait particulière : l’information génétique, base de la vie tout autant que marqueur de la présence d’une espèce ou d’un individu en un lieu. Si l’on reprend la figure 1 de Shannon, un signal informatif peut tout aussi bien correspondre à la transmission d’un ARN messager du noyau cellulaire au cytoplasme, qu’à l’émission d’une hormone et à sa réception par un tissu cible, à une réaction immunologique, à la transmission d’un signal électrique entre neurones. Un signal est une sorte de message et une interprétation large de la théorie est possible. Le schéma de la figure 1 s’avère particulièrement générique. Cependant, Shannon réfute ce genre d’interprétation, de même que la plupart des mathématiciens à l’exception notable, nous l’avons vu, de Shrödinger.

2016

Du Shannon de 1948 à Internet et au développement du web, à l’information libre sur Wikipédia, et aux logiciels et licences libres en poursuivant par les réseaux sociaux, un long chemin a été parcouru. L’usage des nouvelles technologies est devenu de nos jours banal. Il suffit de partager une langue, du matériel, un réseau et une prise électrique, et les informations sont obtenues facilement, les échanges sont aisés, le commerce électronique se développe, rendant possible l’émergence d’une société de l’information. Le numérique est devenu en quelques années un changement culturel  majeur autant qu’industriel ou technologique. De grosses entreprises dynamisent le secteur et une multitude d’acteurs secondaires se sont multipliés depuis les années soixante.

Usages

L’usage s’est généralisé en une quinzaine d’années alors que les portables et les tablettes rendent l’outil particulièrement intéressant dans les déplacements, ou pour des paiements en des lieux où les banques sont absentes. Mais, de nombreux dangers et limites liées aux technologies numériques sont faciles à mettre en évidence : addictions, piratages et fuites des données, fractures générationnelles et sociales, uniformisation, surveillance globale facilitée, émergence du darknet, primauté de l’information sur l’action.

Monnaies et crypto-monnaies

Quelques remarques complémentaires en relation peu étroite avec l’article de Shannon concernent le commerce. La monnaie est de nos jours essentiellement dématérialisée. Ce sont des flux d’information qui permettent de faire des achats et des ventes, de régler des factures. Sur Internet, de nombreuses transactions se font via le protocole sécurisé https. La figure 8 de Shannon « Diagramme schématique d’un système de correction » peut avec quelque imagination être considérée comme un modèle de transaction monétaire. L’argent est transférée entre un émetteur – l’acheteur, et un récepteur – le vendeur. Un observateur vérifie la validité du transfert de l’information. Ce dernier acteur peut jouer une multitude de rôles supplémentaires comme vérifier que l’acheteur dispose bien de la somme qu’il souhaite dépenser, que le compte du vendeur a été correctement crédité. Le intermédiaires tels que le fournisseur d’accès, la banque, les organismes tiers, peuvent être perçus comme une autorité unique susceptible de générer la confiance, et ainsi de faciliter les échanges.

Jusqu’à présent seuls les états et les banques garantissaient cette fameuse confiance. L’introduction des crypto-monnaies comme le bitcoin marque une rupture dans cette situation. Dépendant d’Internet, le bitcoin assure en effet de manière mathématique, cryptographique et logique la confiance dans la validité des transactions. Il introduit pour cela la « chaîne de blocs » qui consiste en une base de donnée chiffrée et décentralisée de l’ensemble des transactions effectuées avec cette monnaie. La chaîne de bloc est susceptible d’être utilisée dans une variété de cas pour lesquels la confiance revêt un aspect critique. On peut ainsi envisager des applications dans les secteurs des données cadastrales, des activités notariales, de la validation de titres de propriété, de l’assurance, de la traçabilité, du vote sécurisé, voire des paris et des jeux. Élaboré dans un esprit libertaire pour faire émerger une monnaie qui échappe au contrôle des banques et des états, le bitcoin et la chaîne de bloc sont cependant susceptible de conduire à la modernisation de certaines fonctions régaliennes de ceux-ci, à la modernisation des transactions entre banques et organismes.

L’information libre, oh yeah

Le caractère commun de l’information numérique intéresse tout un panel d’acteurs : sociologues, psychologues, publicitaires, enseignants, politiciens, etc. Une nouvelle discipline est même née au carrefour des sciences humaines et de l’informatique : les humanités numériques. Pour des scientifiques qui étudient cette transition de longue date tels que Michel Serres,  Pierre Levy, Bernard Stiegler, Dominique Wolton, Monique Dagnaud, Richard Dawkins, etc, ou bien pour les praticiens tels que Richard Stallman, Tim Berners Lee et bien d’autres encore une “pensée numérique” est née qui s’appuie sur Internet, dont la logique s’avère aussi imparable que 01 et 01 font 10.

Conclusion

La fécondité d’une théorie, les possibilités nouvelles qu’elle est susceptible d’apporter peut étonner, même si bien sûr la seule théorie de l’information est fort loin de faire l’informatique, le commerce et la génétique ! En sciences de l’ingénieur : reconnaissance des caractères, des visages et de la voix, économie collaborative, transactions à haute fréquence😦, Bitcoin, BitLand, Fab-Labs🙂, Git, Stack Overflow et autres listes de discussion🙂, impression 3D font partie de l’usage courant, ou vont le devenir. Dans le secteur tout à fait différent des biotechnologies : tests génétiques🙂, plantes transgéniques résistant aux herbicides😦 thérapie génique🙂, thérapie cellulaire🙂, etc. D’autres applications restent à être inventés, mais surtout, de nouveaux équilibres restent à être trouvés entre le virtuel et le réel, entre la théorie et la pratique, entre le dogmatisme et l’empirisme, entre la culture et la nature, ou bien encore entre les intérêts communs et particuliers.

Des concepts informatiques majeurs tels que “le réseau et les échanges”, “la mémoire” ou bien “la logique et le calcul” nous rappellent sur les pas des cybernéticiens, que de nombreuses similitudes existent entre les hommes, les animaux, voire même les machines ! Ces dernières ne sont qu’une aide qui doit être regardée avec recul, dont il est sans doute fort intéressant de se passer régulièrement, pour admirer la nature, par exemple.

Dernière petite précision concernant le père de la théorie de l’information. Celui-ci prend plaisir à pratiquer le monocycle, à jongler, à construire des appareils amusants, non utilitaires et sa maison est remplie de telles inventions. Parmi celles-ci, on peut mentionner le THROBAC, un calculateur qui fait des opérations arithmétiques en chiffres romains, des “tortues” qui s’égarent dans les pièces, des machines de différentes sortes et de toutes tailles, une machine à jongler avec trois balles, ainsi que l’”Ultimate Machine”, un étonnant engin dont la portée me semble à la fois comique et philosophique ! Le mathématicien fut encore observé en train d’essayer de battre les records de son fils au Pac-Man.

Texte original

bit-generation#0

Pour comprendre

Organismes

Pour le fun

Biologie

Génétique, biologie moléculaire, évolution biologique
Neurologie
Éthologie, psychologie sociale

Culture

Informatique

Mémoire
Réseau, mobilité, partage, échange
Calcul

Pour aller plus loin

Commémorations centenaire

“All models are wrong but some are usefull” George E. P. Box (Robustness in the strategy of scientific model building, 1979)

[à suivre]

, , ,

  1. [Videos] The Shannon Centenary - Special Centenaire Claude Shannon avec BigDataFR - Big Data

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion / Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion / Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion / Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion / Changer )

Connexion à %s

%d blogueurs aiment cette page :