Archives de la catégorie 1. Généralités

L’art de dessiner des graphes

“Ce grand monde, c’est le miroir où il nous faut regarder pour nous connaître de bon biais.”

Montaigne, Essais

À première vue, dessiner un graphe semble relativement simple. Il suffit de prendre deux points et de les relier par un trait. Il est encore possible de nommer le point de départ et le point d’arrivée, A et B par exemple. C’est précisément cette simplicité qui fait tout l’intérêt de la technique ! Mais les choses peuvent devenir rapidement plus compliquées lorsque les points et les liens deviennent nombreux (Graphe 1, Graphe 2). Dérivé du grec ancien γράφος, gráphos « écrit », le graphe correspond à un ensemble de nœuds (sommets) reliés par des arêtes (arcs) qui servent de modèle pour décrire le réel.

Maillage

Graphe 1 : Réseau géodésique français pour la réalisation de la carte d’État-major au 1/40 000 élaborée entre 1825 et 1866. http://buclermont.hypotheses.org/3231

paris-metro

Graphe 2  : Diagramme de Sankey 3D du flux de passagers dans le métro parisien par Etienne Come avec mapbox.com. http://www.comeetie.fr/galerie/sankeystif/index_map.html

Pour le mathématicien, les arbres, les chaînes, les cycles et les réseaux sont des sortes de graphes. Euler propose dès 1735 une théorie pour décrire les chemins rendus possibles par les sept ponts de Königsberg desservant deux îles centrales de la cité. Il fonde ainsi une branche des mathématiques discrètes dont les applications s’étendent à d’autres domaines (Ghys 2010, Zeste de savoir 2016).

Des graphes forment des réseaux qui peuvent être cartographiés. Les nœuds comme les arêtes peuvent être géolocalisés. Des réseaux routiers, de voies navigables et aériennes, des réseaux électriques, Internet et téléphoniques, des chaînes de production assurent le mouvement des personnes, des marchandises, de l’électricité, de l’information et du travail (Graphe 3). 

chaine_fabrication_auto

Graphe 3 : Les trois stades de la fabrication dans une chaîne automobile.

L’informatique

Penser graphe (modèliser) s’avère intéressant dans un certain nombre de situations. Des arbres et des cycles servent de multiples manières au fonctionnement des ordinateurs. Les fichiers sont stockés dans des arborescences, alors que les bases de données sont dites relationnelles, orientées graphe (Neo4J) ou bien délivrent des graphes en réponse à des requêtes du type graphe (triplestore). Des langages balisés tels que HTML ou XML fournissent une information structurée en arbre. Le lien hypertexte rend possible le passage aisé d’un document à un autre dessinant le graphe du web. Des logiciels peuvent évoluer au cours de leur cycle de vie dans le sens d’une diversification pour former un arbre du type cladogramme. Le cas de Linux s’avère représentatif à cet égard (Graphe 4). L’étonnant logiciel Gource génère à partir des logs d’un gestionnaires de code source tel que « git » la vidéo d’un arbre animé, image de l’histoire d’un projet informatique.

linux-timeline

Graphe 4 : La frise chronologique des distributions Linux : http://telecharger-linux.roozeec.fr/2010/11/01/la-timeline-des-distributions-linux/

Gestion des connaissances

genealogie-sciences

Graphe 5 : Une distribution généalogique des sciences et des arts principaux. Encyclopédie de Diderot, 1751.

Penser graphe s’avère de nouveau utile lorsqu’il s’agit de lier et gérer de manière professionnelle de vastes ensembles de connaissances (Graphe 5). Les articles de Wikipédia peuvent être considérés comme des feuilles liées entre elles d’un arbre de connaissance multilingue dont l’anglais s’avère parfois être la langue la mieux renseignée. Toute connaissance peut en théorie être représentée sous forme d’un triplet RDF (Resource Description Framework) dans lequel un sujet est relié à un objet par un prédicat (Graphe 6). Des opérations logiques du type inférence deviennent alors possibles sur de multiples triplets éléments d’un même graphe. Des ontologies écrites elles-mêmes sous forme arborescente avec OWL (Langage d’ontologie du web) formalisent la nature des nœuds (sujet ou objet) et des arêtes (prédicats).

Triplet RDF

Graphe 6 : Un triplet RDF

Dans le domaine des archives, Martin Grandjean (Grandjean 2014) considère que les dossiers, collections et documents d’une archive sont des éléments d’un graphe de connaissance. L’archive devient alors un entrepôt de savoirs dans lequel des sources primaires servent de preuve lors d’études historiques (Leturcq 2016), géographiques ou généalogiques. Cela concerne aussi possiblement les bibliothèques, les musées et les corpus scientifiques. Au-delà des sciences de l’information, la gestion des connaissances concerne en fait de nombreux domaines.

Réseaux sociaux

Qu’en est il de la sociologie ? Tout le monde a bien conscience de faire partie de plusieurs réseaux relationnels définissant des cercles (Graphe 8). Lieu des émotions et affects, de la mémoire et des oublis, du conformisme, de l’imitation et du prestige, de l’apprentissage et de l’imagination, du conscient et de l’inconscient, de l’ordre et du désordre.

mymap_daterange

Graphe 8 : Réseau d’échange de mails par Christopher Baker (plasticien du numérique), 2007

Quelques exemples de réseaux étudiés par les historiens des sciences et les sociologues peuvent être donnés. La «République des Lettres» s’étend de la Renaissance au Siècle des Lumières. Un espace d’échanges épistolaire et de rencontres dans des salons et académies réunit des littéraires et des scientifiques européens autour d’idées de diffusion de la connaissance. A cette époque sont éditées en italien, en allemand, en français, en anglais et en russe les premières encyclopédies. Plus de 150 érudits et savants collaborent ainsi à l’Encyclopédie ou Dictionnaire raisonné des sciences, des arts et des métiers publiée en 1751 par d’Alembert et Diderot.

Moreno propose en 1934 le sociogramme, outil de description graphique des relations interpersonnelles d’enfants réunis en milieu scolaire. Différentes classes d’ages sont ainsi étudiées aboutissant à une représentation graphique, reflet plus ou moins fidèle des structures de groupe telles qu’elles se développent en milieu éducatif (GrandJean 2014).

En 1967,  le psychosociologue Milgram élabore la théorie du « petit monde ». Tout individu habitant les États Unis est relié à un autre par un nombre de relations interpersonnelles inférieur ou égal à 6. Une expérience dans laquelle des personnes se transmettent de main à la main un document est effectuée afin d’éprouver la théorie.

Introduit dans les années 2000, le nombre d’Erdős enfin est un indicateur bibliométrique spécifique des mathématiques. Il évalue la distance d’un auteur dans le cadre de publications conjointes à Paul Erdős, le fameux hongrois aux 1500 articles et plus de 500 collaborations, théoricien lui-même du graphe aléatoire. Structurées en cycles, arbres et réseaux interconnectés, les sociétés apparaissent plus petites que notre intuition ne le laissait penser.

Le développement rapide d’Internet, des réseaux téléphoniques et du commerce en ligne ont focalisé l’intérêt sur la question des communautés sociales, professionnelles et marchandes. Wikipédia, Google, Facebook, Twitter, Amazon, Uber deviennent des objets d’études et le graphe s’impose comme outil de représentation des données, personnes ou bien objets et produits du commerce. Il devient alors possible de visualiser sous forme de graphe les résultats d’une recherche de livres effectuée sur Amazon en employant par exemple le framework javascript VivaGraphJS (Graphe 8).

aws-graph

Graphe 8 : Recherche chez Amazon des livres en anglais relatifs à la visualisation des graphes. Les résultats sont présentés sous forme d’un graphe avec le framework javascript VivaGraphJS d’Andrei Kashcha. Changez de sujet à l’aide du formulaire situé en haut à gauche de la page.

Biologie

Terminons ce rapide tour d’horizon des graphes et réseaux par quelques mots de biologie. Différents appareils et systèmes chez l’homme se prêtent bien à une représentation du type graphe. Citons l’appareil circulatoire, l’appareil respiratoire ou le squelette. Des maladies infectieuses se propagent en suivant la logique des réseaux sociaux (Basileu 2012). En neurologie, transitant par des plaques tournantes modulaires, des réseaux de neurones sont à la base du fonctionnement des systèmes nerveux centraux et périphériques. Les interactions entre protéines peuvent encore être décrites à l’aide de graphes (Gene Cloud). Dans un domaine plus général, Darwin représente dès 1837 l’évolution des espèces à l’aide de graphes (Graphe 9). 

darwin-1837

Graphe 9 : « Transmutation Notebook B » – Juillet 1837, Archives de Cambridge

Art et symbolique

A quoi sert le graphe ? Tout comme le dessin, l’écriture ou une équation mathématique, le graphe est susceptible de fournir une image sommaire du réel, voire de l’imaginaire. Les symboliques du graphe s’avèrent multiples. Le lien, le voyage, le pont, la porte, le passage, le port, la station, la gare présentent en commun les notions d’échange, de relation, de mouvement. En suivant un lien hypertexte ou une route, nous passons d’un monde dans un autre.

Pour l’amateur de philosophie antique romaine, Janus est le dieu associé aux passages et aux portes. Il est représenté avec une double tête dans laquelle deux visages fixant simultanément deux directions opposées. Il préside aux commencements et aux fins, aux choix et au temps. En tant que dieu des transitions, il est invoqué lors des naissances et des échanges. Il se trouve fréquemment associé à Portunus, dieu des portes et des ports dont l’attribut est la clé. Le citoyen romain fait appel à ce dieu mineur lors des transactions commerciales, des voyages et des embarquements.

La bible fait encore référence à l’arbre de la connaissance du bien et du mal (Torrens 2013) et à de nombreux types d’arbres et de buissons. Les grandes religions orientales se basent sur la croyance en de multiples cycles de réincarnations. Arbres et cycles ne sont ils pas deux types de graphes qui permettent de modéliser de manières complémentaire les notions d’espace et de temps ? La symbolique des réseaux apparaît également vaste et ancienne (Musso 1999).

Conclusion

Mais restons pragmatiques, le graphe n’est qu’une technique bien commode pour retracer des passés oubliés, optimiser des trajets, concevoir des objets, envisager des possibles. Des dessins différents permettent de décrire une même réalité. Plusieurs solutions sont possibles. Au dessinateur de trouver quelque chose d’efficace et de plaisant. Pour tracer de beaux arbres, de jolis cycles et de magnifiques réseaux quelques outils bien affûtés sont sans doute nécessaires : un soupçon de théorie, une pointe de scepticisme envers les données, une pratique régulière et de l’expérience. 

Le web rend aisément accessible de nombreux langages informatiques et logiciels spécialisés dans la représentation des graphes et des réseaux. Des logiciels tels que Graphviz ou Gephi peuvent être cités. Comme le montre bien l’exemple des livres Amazon, le graphe facilite l’exploration de grands ensembles de documents. Les arêtes sont la marque des liens qui réunissent des entités qui peuvent être des individus, des organisations ou des objets. Des frameworks javascript tels que VivaGraphJS, D3.js ou SigmaJS peuvent être employés pour visualiser de tels graphes. Des sociétés telles que Linkurious ou Elastic (Graph) proposent ce genre de produits. La présence de forces de répulsion concurrentes des liens confère à un réseau quelconque la capacité d’adopter automatiquement une conformation stable, comparable en quelque sorte à ce qui se passe dans le vivant (Graphe 10).

hb-blckhole

Graphe 10 : Graphe HB/blckhole (2121 noeuds, 6370 arêtes) d’après Andrei Kashcha, avec ViviGraphJS. http://www.yasiv.com/graphs#HB/blckhole

[A suivre…]

Webographie

Pour les curieux

Publicités

, , ,

Poster un commentaire

Juste un tutoriel Docker

Containeur au port de Lyon

Chargement d’un conteneur sur les quais du port fluvial de Lyon : http://www.yanngeoffray.com/photo-container/

Solomon Hykes, travaille pour DotCLoud à New-York lorsqu’il publie Docker en open-source le 13 mars 2013. Quatre ans plus tard, le succès est au rendez-vous et les contributeurs aux projets et sous-projets se comptent en milliers. Docker est une solution de virtualisation qui tourne de manière standard sous Linux dont il utilise certaines composantes. Initialement, Docker étendait le format de conteneur LXC (Linux Containers) avec une API RESTFul.  Docker se base maintenant sur une librairie propre nommée libcontainer.

Un écosystème se développe autours de l’outil incluant des services web comme DockerHub, des logiciels comme Compose, des gestionnaires comme Kubernetes, Mesos ou Docker swarm. Le mouvement informatique Devops se base sur Docker et sur les méthodes agiles pour le développement et la maintenance de nombreuses applications. Le dialogue entre développeurs et responsables des infrastructures informatiques s’en trouve grandement facilité. Mais qu’est-ce qu’un conteneur dans un environnement Linux ? Qu’est-ce qu’une image Docker et à quoi peut bien servir Docker Compose ?

Un conteneur est un système de virtualisation qui permet de faire tourner sur une machine Linux une application et ses dépendances dans un environnement indépendant du système d’exploitation. Docker comprend un client et un démon. Le client gère les commandes Docker et transmet les informations au démon qui fait le travail et retourne le résultat au client. Deux catégories principales d’objets sont ainsi manipulées : des images inactives susceptibles d’être échangées ou construites localement, et des conteneurs actifs ou ayant déjà tourné qui sont des instances des images. Les conteneurs font juste tourner des applications fonctionnelles dans un environnement Linux spécifié.

Des exemples de distribution Linux accessibles via Docker sont Debian, Linux Alpine ou Ubuntu. Un serveur comme Apache ou Nginx, un langage informatique tel que PHP, Python ou javascript/Node.js, une base de donnée comme MySQL, MariaDb, Redis ou Neo4j, un moteur de recherche comme Sphinx, ElasticSearch ou SolR, un gestionnaire de contenu tel que Drupal, WordPress ou Omeka constituent des exemples d’applications susceptibles d’être conteneurisées. Un conteneur se distingue d’une machine virtuelle par sa légèreté, par le fait que les ressources à mettre en oeuvre sont considérablement réduites, par le fait que les téléchargements sont réduits au minimum nécessaire.

La notion d’image peut être précisée. Une image est un fichier compressé qui contient une ou plusieurs couches d’autres images et une suite d’instructions. Un conteneur est créé lorsqu’une image est lancée. Plusieurs conteneurs peuvent être lancés à partir de la même image. Docker Hub https://hub.docker.com est un lieu d’échange d’images officielles et personnalisées. Tout le monde peut mettre à disposition (push) ou exploiter (pull) des images de multiples applications via cette plaque tournante en accès libre inspirée de GitHub.

Un autre outil – Docker Compose – s’avère rapidement indispensable pour orchestrer le fonctionnement de plusieurs conteneurs. Ceux-ci peuvent s’avérer nombreux car dans la pratique, il est préférable de fabriquer un conteneur par composante d’application ce qui facilite la gestion des versions, des variables et des volumes. Nous verrons dans ce tutoriel une méthode simple pour installer Docker et Docker Compose. Nous nous servirons de Docker Hub pour installer et le paramétrer un serveur Nginx tournant dans un environnement Linux alpine.

A moins de disposer de configurations récentes de Windows et Mac, Docker ne tourne nativement que sous Linux. Une machine virtuelle nommée Docker Toolbox permet néanmoins de faire fonctionner Docker et Docker Toolbox sur la plupart des systèmes d’exploitation récents Mac et Microsoft.

Docker (logiciel), LXC, Devops

  • Installer Docker sous Windows, 2016, Article
  • Docker for windows (64bit Windows 10 Pro et plus) : Article
  • Comment installer docker sur Mac OSX, 2016, Article
  • Docker for mac (macOS 10.10.3 Yosemite et plus) : Article
  • Docker usage statistics : Article
  • Docker outil indispensable du Devops, Programmez, 2017, Article

A. Installation de Docker

Sous Linux Debian, passage en mode administrateur

sudo su

Installation de Docker

apt-get install -y docker.io

Démarrage du démon Docker

/etc/init.d/docker start

Liste des commandes Docker

docker

Aide en ligne de commande sur les instructions avec –help

docker run --help

Une documentation officielle se trouve sur docs.docker.

B. Commandes Docker

Plusieurs actions sur différentes sortes d’objets sont alors possibles :

  1. Actions sur les conteneurs : attach, cp, create, diff, exec, export, kill, logs, pause, port, ps, rename, restart, rm, run, start, stats, stop, top, unpause, update, volume, wait
  2. Actions sur les images : build, commit, history, images, import, load, rmi, save, tag
  3. Echanges avec Docker Hub ou avec un entrepôt local : login, logout, pull, push, search
  4. Actions générales liées à Docker : events, info, inspect, network, node, service, swarm, version

C. Le conteneur “hello-world”

Un premier conteneur est démarré :

docker run hello-world

Plusieurs opérations se déroulent successivement avec l’instruction “run”. Si l’image du nom de “hello-world” est absente localement, celle-ci est recherchée sur Docker hub et téléchargée. Elle devient alors référencée comme image disponible dans l’entrepôt local et ne sera téléchargée ainsi qu’une seule fois. Puis le conteneur “hello-world” est lancé. Il affiche un message qui récapitule les actions du client et du démon Docker déclenchées par l’instruction “run” :

Unable to find image 'hello-world:latest' locally
latest: Pulling from library/hello-world

78445dd45222: Pull complete 
Digest: sha256:c5515758d4c5e1e838e9cd307f6c6a0d620b5e07e6f927b07d05f6d12a1ac8d7
Status: Downloaded newer image for hello-world:latest

Hello from Docker!
This message shows that your installation appears to be working correctly.

To generate this message, Docker took the following steps:
 1. The Docker client contacted the Docker daemon.
 2. The Docker daemon pulled the "hello-world" image from the Docker Hub.
 3. The Docker daemon created a new container from that image which runs the
    executable that produces the output you are currently reading.
 4. The Docker daemon streamed that output to the Docker client, which sent it
    to your terminal.

To try something more ambitious, you can run an Ubuntu container with:
 $ docker run -it ubuntu bash

Share images, automate workflows, and more with a free Docker ID:
 https://cloud.docker.com/

For more examples and ideas, visit:
 https://docs.docker.com/engine/userguide/

D. Le conteneur alpine

Alpine est une distribution Linux légère dont il est possible de télécharger l’image avec Docker. Créée en 2010, cette distribution se déclare indépendante, non commerciale, et généraliste, adaptée pour les personnes qui apprécient la sécurité, la simplicité et l’efficacité de leur système d’exploitation. Faisons tourner un conteneur alpine et entrons à l’intérieur de celui-ci pour voir ce qui s’y passe.

Alpine Linux, Linux alpine : https://alpinelinux.org/

1/ Téléchargement d’alpine

Chercher les images Alpine sur Docker Hub

docker search alpine

Téléchargement de l’image officielle

docker pull alpine

Historique de l’image alpine

docker history alpine

Affiche des images présentes localement

docker images

2/ Lancement du conteneur alpine

L’instruction “run” vérifie que l’image “alpine” est présente dans le répertoire Docker local. En cas d’absence, le téléchargement est fait. Le conteneur correspondant à l’image est ensuite lancé. La commande “ls -l” passée en argument affiche la liste des répertoires et fichiers dans l’environnement alpine.

docker run alpine ls -l

Une autre commande peut être testée.

docker run alpine echo "Salut la compagnie, ohé, ohé, ohé"

Celle-ci affiche le message : le client après avoir lancé un conteneur “alpine” fait tourner la commande “echo”. Il transmet les instructions au démon qui fournit le résultat. Entrons maintenant à l’intérieur d’un conteneur.

docker run -it alpine /bin/sh

Nous sommes à l’intérieur du conteneur alpine et pouvons entrer des commandes telles que “ls -s” ou “uname -a”. Pour la sortie : “exit”.

3/ Quelques commandes Docker

D’autres commandes que « run » s’avèrent intéressantes.  Elles sont assorties d’options parmi lesquels -i (interactif), -t (allocation d’un pseudo TTY), -d (conteneur en arrière plan, détaché), -a (all) sont souvent utilisées. Liste des conteneurs actifs, liste des conteneurs actifs et inactifs :

docker ps
docker ps -a

Arrêt d’un conteneur actif en spécifiant l’id ou le nom

docker stop 16566238781a

Suppression dans l’entrepôt d’un conteneur préalablement stoppé

docker rm 16566238781a

Liste des images

docker images

Liste des métadonnées associées à une image

docker inspect hello-world

Suppression d’une image

docker rmi hello-world

Nettoyage de tous les conteneurs inactifs et de toutes les images inutilisées

docker rm $(docker ps -a -q)
docker rmi $(docker images -q)

E. Construire son image avec Dockerfile

Des images personnalisées peuvent aussi être construites sur la base du contenu d’un fichier Dockerfile. Des commandes répondant à une syntaxe particulière spécifient des couches d’instructions qui différencient l’image produite d’une image standard. La première des commandes est FROM qui précise l’image de départ (la toile du peintre). D’autres  sont ADD, CMD, COPY, ENTRYPOINT, ENV, EXPOSE, MAINTAINER, RUN, USER, VOLUME, WORKDIR… Des volumes peuvent ainsi être montés ou copiés (ADD, COPY), des commandes Linux tournent (CMD, RUN), etc. Pourquoi ne pas se lancer avec un exemple basique ? Dans un répertoire images, édition d’un fichier Dockerfile :

mkdir images
cd images
gedit Dockerfile

Contenu de Dockerfile. L’affichage de la liste des répertoires courants d’un conteneur Linux alpine est demandé.

FROM alpine
CMD ["ls","-al"]

Construction de l’image “mon-alpine” marquée du tag latest.

docker build -t mon-alpine:latest .

Liste des images présentes dans l’entrepôt local

docker images

Lancement du conteneur “mon-alpine”.

docker run -it mon-alpine

F. Orchestrez vos applications avec Docker Compose

Les applications tournent généralement dans plusieurs conteneurs qui partagent des volumes, sont liés, démarrés ou arrêtés simultanément. Docker Compose est un outil officiel de Docker qui facilite grandement ce genre d’opérations. Docker Compose ne fait pas partie de docker.io. Son installation s’avère plus aisée en passant par les bibliothèques python accessibles via pip. Les instructions successives fournies à Docker Compose sont listées dans docker-compose.yml, un fichier au format Yaml. L’image hello-world est ici lancée avec Compose.

1/ Installation de docker-compose

apt-get -y install python-pip
pip install docker-compose

2/ Quelques instructions et aides
Vous pouvez tester quelques unes des commandes et arguments suivants :

docker-compose
docker-compose -v
docker-compose -h
docker-compose up --help
docker-compose ps
docker-compose stop
docker-compose rm

3/ Edition d’un fichier docker-compose.yml

mkdir hello-world
cd hello-world
gedit docker-compose.yml

Le fichier docker-compose.yml est créé dans le répertoire “hello-world”. Avec YAML, format respecté par ce fichier, l’indentation est significative . Le # indique un commentaire. La version 2 de docker-compose est spécifiée. Lancement d’un conteneur nommé “mon-test” à partir de l’image “hello-world”. Plutôt basique comme symphonie !

# hello-world avec docker-compose
version: "2"
services:
  mon-test:
    image: hello-world

4/ Lancement de Docker Compose

docker-compose up

Affichage :

Starting helloworld_mon-test_1
Attaching to helloworld_mon-test_1
mon-test_1  | 
mon-test_1  | Hello from Docker!
mon-test_1  | This message shows that your installation appears to be working correctly.
mon-test_1  | 
mon-test_1  | To generate this message, Docker took the following steps:
mon-test_1  |  1. The Docker client contacted the Docker daemon.
mon-test_1  |  2. The Docker daemon pulled the "hello-world" image from the Docker Hub.
mon-test_1  |  3. The Docker daemon created a new container from that image which runs the
mon-test_1  |     executable that produces the output you are currently reading.
mon-test_1  |  4. The Docker daemon streamed that output to the Docker client, which sent it
mon-test_1  |     to your terminal.
mon-test_1  | 
mon-test_1  | To try something more ambitious, you can run an Ubuntu container with:
mon-test_1  |  $ docker run -it ubuntu bash
mon-test_1  | 
mon-test_1  | Share images, automate workflows, and more with a free Docker ID:
mon-test_1  |  https://cloud.docker.com/
mon-test_1  | 
mon-test_1  | For more examples and ideas, visit:
mon-test_1  |  https://docs.docker.com/engine/userguide/
mon-test_1  | 
helloworld_mon-test_1 exited with code 0

Le conteneur “hello-world” a tourné et les commentaires s’affichent.

L’aide officielle (anglais) :

G. Un serveur nginx avec Docker

Nginx (prononcer « engine-x ») est un serveur Web open source développé originellement par Igor Sysoev pour les besoins d’un site moscovite à fort trafic. Ses objectifs en 2002 étaient de mettre au point un serveur haute performance dont la consommation en mémoire est faible comparativement à Apache. Écrit en C, le logiciel se caractérise par son architecture modulaire. Nginx devient très employé à partir de 2006, date de la traduction en anglais de la doc.

Nous allons pour conclure ce billet faire tourner un serveur Nginx avec Docker en employant trois méthodes différentes. Le système de fichier à construire est le suivant :

├── app
│   └── index.html
├── nginx
│   └── default.conf
├── Dockerfile
└── docker-compose.yml

1/ Page d’accueil de l’application

mkdir app
gedit ./app/index.html

Contenu d’index.html :

Hello world !

2/ Fichier de configuration du serveur

mkdir nginx
gedit ./nginx/default.conf

Contenu de default.conf

server {
    index index.html;
    server_name test;
    root /app;
}

3/ Fichier Dockerfile

gedit Dockerfile
FROM nginx:alpine
COPY /app /usr/share/nginx/html
COPY /nginx/default.conf /etc/nginx/conf.d/site.conf

4/ Fichier docker-compose.yml

gedit docker-compose.yml

Contenu :

# Nginx sur le port 8080
version: "2"
services:
  mon-nginx:
    image: nginx:alpine
    ports:
      - "8080:80"
    volumes:
      - ./app:/usr/share/nginx/html
      - ./nginx/default.conf:/etc/nginx/conf.d/site.conf

4/ Démarrage du conteneur

Il est souhaité que le conteneur mon-nginx contenant la dernière image stable de Nginx tourne sur le port 8080 et serve les pages web localisées sous /app. Trois méthodes différentes sont successivement employées pour cette opération.

a/ En ligne de commande
Le conteneur mon-nginx est démarré sur le port 8080 en mode détaché -d. L’option -p indique le port. L’option -v précise le montage des volumes. Attention aux chemins ! Vous devez indiquer le chemin absolu ce que se fait ici avec $(pwd).

docker run --name mon-nginx -p 8080:80 -v $(pwd)/app:/usr/share/nginx/html -v $(pwd)/nginx/default.conf:/etc/nginx/conf.d/site.conf -d nginx:stable

Le navigateur affiche « Hello World ».
http://localhost:8080/

Arrêt et suppression de ce premier conteneur « mon-nginx » :

docker stop mon-nginx
docker rm mon-nginx

b/ Avec Dockerfile

Construction d’une image nommée df-nginx avec Dockerfile

docker build . -t df-nginx

Lancé à partir de l’image df-nginx, le conteneur mon-nginx tourne en mode détaché sur le port 8080 :

docker run --name mon-nginx -d -p 8080:80 df-nginx

Le conteneur tourne-t-il correctement ?
http://localhost:8080/

Arrêt et suppression du deuxième conteneur mon-nginx, suppression de l’image df-nginx :

docker stop mon-nginx
docker rm mon-nginx
docker rmi df-nginx

c/ Avec Docker compose

Lancement d’un conteneur avec Compose. Le fichier docker-compose.yml est pris en compte. Les logs s’affichent.

docker-compose -up

Nous ne sommes pas en mode détaché: Arrêt du conteneur avec « Ctrl C ». Suppression du troisième conteneur.

docker rm mon-nginx

Quelques liens : Nginx, https://hub.docker.com/_/nginx/

Documentation Docker nginx (en) : Site

Images Omeka S avec Docker :

Conclusion

Vous disposez maintenant d’un Docker et d’un Docker Compose fonctionnels. Vous savez construire vos images et lancer de différentes manières un conteneur Linux alpine et un serveur nginx, applications optimisées pour leur faible consommation en ressources. Les choses sérieuses peuvent commencer.

A suivre avec quelque chose sur l’art…

,

1 commentaire

La communication chez les micro-organismes

Tout dans la nature est utile.

Aristote

Tout se passe un peu comme si la nature ne faisait jamais rien en vain, si bien que les êtres vivants montrent une adaptation remarquable à leur milieu. Pourtant, l’environnement terrestre ressemble plus souvent à une sévère compétition entre individus, groupes d’individus et espèces à la conquête d’un territoire qu’à un long fleuve tranquille. Mais d’autre part, des échanges spécifiques et inter-spécifiques rendent possible la recherche d’intérêts partagés. La lutte pour l’existence voisine avec l’aide mutuelle et la coopération, voire la symbiose. Il convient alors pour les différents individus d’être capable de rapidement discerner les pathogènes des symbiotes, les prédateurs des proies au milieu d’un environnement peuplé de partenaires et de concurrents. Il s’agit d’évaluer en une fraction de seconde ou bien de soupeser sur le long terme lorsque c’est possible des avantages et des inconvénients. Des erreurs pourraient s’avérer gênantes !

Parmi les petits animaux, Aristote s’intéresse longuement à l’abeille et à son organisation sociale qu’il considère être un modèle des sociétés humaines. Le premier des scientifiques voit en l’abeille un animal divin, capable d’une pensée collective et politique, donc doué de calcul, de mémoire et de communication. Ses travaux remarquables incluent sans doute quelques erreurs liées à des à priori socio-culturels, à l’impossibilité de l’observation, à la facilité de l’anthropomorphisme, effet littéraire que nous allons parfois employer ici. Mais diminuons encore la taille de l’organisme et passons au présent. Comment de microscopiques êtres vivants transmettent ils l’information ?

Les micro-organismes se multiplient et se propagent rapidement, par clonage. De récentes découvertes montrent qu’ils disposent en plus de systèmes biochimiques et de canaux spécialisés dans la communication. Les membres d’une colonie “parlent” entre eux : ils votent. Plus précisément, ils sont programmés pour organiser de manière cyclique des échanges d’information dont les mécanismes s’apparentent quelque peu à ce que l’homme appelle un référendum. Le message est un signal spécifique qui lorsqu’il est présent en concentration suffisante est perçu par un récepteur qui déclenche des actions. Des molécules biochimiques constituent des sortes de micro-langages qui déclenchent des comportements particuliers. Les bactéries construisent encore des réseaux sociaux qui leur permettent d’échanger de manière plus ou moins ciblée des éléments nutritifs de même que des molécules porteuses d’informations. Cela mérite quelque attention. Les microbiotes n’ont pas de message politique à faire passer aux hôtes qui les héberge, mais ils utilisent des méthodes voisines. 

Lutte pour l’existence (en), Anthropomorphisme, Microbiote

Aristote et le monde de la Ruche, Simon Byl, 1978, Article

La communication chez les bactéries

Indépendants des mécanismes de reproduction et de transfert d’ADN, des phénomènes de communication concernent les colonies bactériennes. Des “comportements de groupe” sont induits par des messages moléculaires que les bactéries échangent entre elles. La détection du quorum (quorum sensing) est mise en évidence en 1985 chez Vibrio fischeri, une bactérie responsable de la bioluminescence du calmar Euprymna scolopes. Le petit mollusque vit la journée enfoui dans le sable des eaux peu profondes d’Hawaï. Il est actif la nuit et sa bioluminescence remplit alors plusieurs fonctions. Elle permet au calmar d’effacer l’ombre projetée sur les fonds par les faibles lumières nocturnes et d’échapper ainsi aux prédateurs. Le mollusque peut encore expulser brusquement un nuage de bactéries bioluminescentes et désorienter un poisson. Côté bactérien, la vie en symbiose offre également certains avantages. Mais des bactéries Vibrio fischeri dépourvues de bioluminescence existent également en milieu marin.

Vibrio fischeri

Photo de gauche, le calmar Euprymna scolopes, à droite une colonie bioluminescente de Vibrio fischeri, ainsi que la paroi bien différenciée du mollusque au niveau de laquelle s’effectue des échanges interspécifiques : Site

Les micro-organismes vivent rassemblés en colonies au niveau d’organes spécialisés qui apparaissent au cours du développement du mollusque. Une augmentation de la concentration en N-acyle homosérine lactone (NAHL) présente dans le milieu bactérien déclenche la bioluminescence. En absence de NAHL aucune bioluminescence n’est constatée. La molécule auto-inductrice est sécrétée par les micro-organismes et diffuse à travers la paroi bactérienne. Lorsque la concentration dépasse un certain seuil, la bioluminescence se déclenche. Les aspects génétiques du phénomène sont maintenant bien connus. Présent sur le deuxième chromosome de Vibrio, l’opéron luxICDABEG rassemble une batterie de gènes qui s’exprime de concert. Deux autres systèmes de quorum viennent stimuler l’expression de l’enzyme luciférase responsable de l’émission de photons.

De plus, les colonies bactériennes interagissent avec leur hôte en régulant son rythme biologique. Des messages spécifiquement associés à la présence de microbes, MAMP pour Microbe-Associated Molecular Pattern, modulent l’expression des gènes du rythme circadien du céphalopode. Au petit matin, le calmar éteint la lumière. Il expulse 95% des bactéries et s’enfouit dans le sable pour dormir. Vibrio fischeri se retrouve alors sous forme de cellule isolée dans le milieu marin. La bactérie a acquis au cours de l’évolution des capacités remarquables liées à son double mode de vie. Des services sont échangés entre l’hôte et le symbionte. L’un fournit l’énergie et les nutriments, contrôle les populations. L’autre rend possible le camouflage. Vibrio fischeri vit en symbiose avec de nombreux autres mollusques et poissons qui utilisent sa bioluminescence. D’autres phénomènes symbiotiques restent sans doute à découvrir chez le calmar, animal modèle des associations hôte-microbe et de la socio-microbiologie marine.

Au-delà de Vibrio fischeri, la détection du quorum s’avère être un mécanisme général, commun à plusieurs espèces bactériennes. De multiples molécules jouent ainsi le rôle de messager. Ce même mécanisme microscopique commande différents phénomènes visibles au niveau macroscopique, . Des “comportements de groupe” induits par ces langages bactériens incluent la virulence, la formation de bio-films, la production d’antibiotiques, la conjugaison, la sporulation ou la compétence. Par ailleurs, le gène de la luciférase sert de gène rapporteur, commode pour étudier en laboratoire l’expression génique dans un tissu quelque soit l’espèce. La détection du quorum est un domaine de recherche particulièrement actif en microbiologie, avec des applications possibles dans les domaines de l’industrie, de la pharmacie, voire des loisirs.

Auto-induction de la bioluminescence et symbiose

Détection du quorum, Aliivibrio fischeri, Euprymna scolopes, Luciférase

  • Shedding light on bioluminescence regulation in Vibrio fischeri, 2012, Madison, USA, Article
  • Chemicals promoting the growth of N-acylhomoserine lactone-degrading bacteria, 2013, France, CNRS, Brevet
  • http://www.glowee.fr/

Réseaux de nanotubes bactériens

Evidemment, pour que la communication chez les bactéries soit plus efficace, il conviendrait qu’une sorte de réseau existe, basé sur la diffusion de messages d’information via un canal. C’est précisément la fonction des nanotubes bactériens que les biologistes mettent en évidence à l’aide de différentes techniques incluant la microscopie électronique. Ces nanotubes sont utilisés pour l’échange de nourriture mais aussi pour l’échange de molécules contenant de l’information comme des messages biochimiques ou de l’ADN. Dans le cas de l’ADN, on parle plutôt de pili de conjugaison ou pili sexuels que de nanotube.

Pilus (en)

  • Intercellular Nanotubes Mediate Bacterial Communication, 2011, Paris, France, Article

nanotube

La communication chez les virus bactériens

Les virus dont la taille est de l’ordre du micron se situent aux frontières du vivant. Pourtant, un système de communication vient d’être mis en évidence chez eux également : un message commande les décisions de lyse ou de lysogénie. Tout se passe “comme si” les bactériophages tempérés étaient capables d’exploiter à leur profit ou bien au contraire de préserver leur hôte, et ceci grâce à un système similaire à la détection du quorum spécifique aux bactéries.

Deux possibilités existent pour le virus : se multiplier à l’identique en grand nombre et provoquer la lyse de l’hôte ou bien rester silencieux, intégré au génome bactérien en préservant l’hôte. Un récent article scientifique met en évidence le rôle d’un peptide de six acides aminés qui régule par sa présence ou son absence le cycle de vie viral. Dans le schéma ci-dessous, le choix de la lyse ou de la lysogénie est expliqué. L’ADN viral est rouge, en vert celui de la bactérie.

Lyse et lysogénie chez le bactériophage

Lyse et lysogénie chez le bactériophage : Article

Le peptide de communication émis dans le milieu par le virus contient six acides aminés Ser-Ala-Ile-Arg-Gly-Ala. Il est nommé «arbitrium» du mot latin signifiant décision. Plusieurs éléments guident les conclusions des auteurs. L’addition aux cellules infectées d’un peptide synthétique entraîne la diminution de la lyse. Le taux du peptide augmente au cours de chaque cycle infectieux du phage.

Modèle mécaniste des décisions de lyse-lysogénie basées sur la communication, extrait de l’article de Nature.

Modèle mécaniste des décisions de lyse-lysogénie basées sur la communication : Article

Dans un premier temps (à gauche : figure a et figure b) le virus en bleu infecte la cellule hôte en injectant son ADN. Celui-ci contient 134 000 nucléotides codant pour 185 protéines. Trois gènes viraux rendent possible la communication. Ils codent respectivement pour :

  1. Le récepteur du peptide (gène aimR, Protéine R, en rouge), qui interagit doublement et de manière compétitive avec une partie régulatrice de la transcription et avec le peptide de communication.
  2. Le peptide de communication (gène aimP, pre-pro-peptide et peptide arbitrium, en jaune)
  3. Le régulateur de la lyse (gène aimX, ARN régulateur de la lyse, en vert).

Lors des premières infections, l’arbitrium est produit de manière intracellulaire en grande quantité sous forme d’arbitrium pré-pro-peptide. Il est libéré dans le milieu et rendu mature par action d’une protéase membranaire bactérienne, en mauve. Pendant ce temps, à l’intérieur de la cellule, la Protéine R se complexe au gène régulateur positif de la lyse aimX. L’ARN est exprimé. Il déclenche la formation de virus et finalement la lyse de l’hôte.

En présence d’arbitrium en concentration suffisante dans le milieu (à droite : figure a et figure c), la protéine membranaire OPP bactérienne spécialisée dans le transport des oligopeptides (tuyau gris sur la figure c) capte le peptide d’origine virale. Le récepteur R se complexe à l’arbitrium ce qui inhibe l’expression du gène aimX. La lyse est inhibée et la lysogénie s’ensuit. Le virus survit alors de manière silencieuse, intégré au génome de l’hôte sous forme de prophage. L’hôte est protégé jusqu’à ce que le virus entre de nouveau en phase lytique. La présence du message conduit à un comportement synchrone de l’ensemble des virus présents en un lieu donné.

L’équipe de recherche à l’origine de l’étude a trouvé plus de cent différents systèmes de communication viraux, actifs principalement chez Bacillus. Les différentes espèces de phages utilisent des micro-langages spécifiques qui guident des “comportements de groupe”. Ils disposent ainsi d’un vocabulaire réduit de nature biochimique. La question de l’application de la communication virale à la production de molécules antivirales reste un sujet ouvert.

Bacillus, Bactériophage, Spbetalikevirus, Cycle lytique, Lysogénie, Prophage

  • Communication between viruses guides lysis–lysogeny decisions, R. Sorek et Al., 2017, Rehovot, Israel, Article
  • Do you speak virus? Phages caught sending chemical messages, E. Callaway, Nature news, 2017, Article
  • Communication between virus-infected cells, Virology blog, V. Racaniello, 2017, Article

Conclusion

Comment une multitude d’organismes du plus petit au plus grand s’y prend elle pour défier la flèche du temps ? Quelles fonctions s’avèrent nécessaire ? Quel rôles jouent la communication, le calcul et la mémoire dans la constitution des groupes et des espèces ? Nous ne le savons pas vraiment. 

Horizontal-gene-transfer

La nécessité de l’utilité pour faire face aux hasards du cycle de vie pourrait être une réponse. En tous cas, c’est l’idée qu’avance Jacques Monod dans son ouvrage de 1970 : Hasard et Nécessité. Au niveau microscopique, l’ADN brassé de multiples manières joue le rôle de système d’information, capable de déclencher des actions logiques en fonction du stade de développement et des variations de l’environnement, et d’en conserver une trace inscrite. Des éléments génétiques mobiles sont le moteur d’une certaine plasticité des génomes. La nature évalue le caractère avantageux ou non des mutations. Des actions individuelles d’une part et collectives d’autre part se produisent au sein d’écosystèmes de tailles variées. Présente chez les virus et les bactéries, la communication intra et inter-spécifique joue probablement un rôle majeur dans l’évolution des espèces.

Le cas des bactéries bioluminescentes fait bien ressortir l’importance des relations symbiotiques. Des interactions hôte-microbe sont présentes chez tous les êtres vivants incluant les animaux et les végétaux. Les eucaryotes ont d’ailleurs intégré de longue date les mitochondries et chloroplastes d’origine bactérienne pour réaliser une endosymbiose avantageuse pour la gestion de l’énergie, à l’origine des plantes et des eucaryotes. Les virus et les divers pathogènes jouent également un rôle majeur. Des centaines de gènes sur les 20412 (en 2017) de l’espèce humaine résultent d’un transfert horizontal de gène survenu à des périodes plus ou moins récentes de l’évolution et en provenance de micro-organismes variés. 

Pour de multiples êtres adaptés à l’environnement au fil du temps, l’information (génétique, environnementale, sociale) induit l’action. Le produit de l’action est possiblement encodé en retour en information. En matière de communication, des choix microscopiques collectifs transduits par un signal préfigurent peut être la transduction du signal observée chez les organismes pluricellulaires. Sans doute, la communication est un phénomène qui apparaît tôt sur l’échelle dans le foisonnant buisson de l’évolution. Des effets macroscopiques découlent d’événements microscopiques. Les traces de ce petit peuple étrange que constituent les bactéries, les virus et autres éléments mobiles sont inscrites en nous et nous influencent considérablement sans que nous en ayons conscience. Plus encore, selon la théorie de l’évolution de Darwin renouvelée par la théorie du transfert génétique horizontal, par la théorie endosymbiotique et par l’épigénétique, nous partageons avec eux des séquences, des gènes et des fonctions. Traces multiples d’ancêtres communs doués de communication et aujourd’hui disparus.

Eucaryote, Multicellular organism (en), Théorie synthétique de l’évolutionTransfert horizontal de gènes, Théorie endosymbiotique, ÉpigénétiqueThéorie de l’informationHistoire de la pensée évolutionniste

  • Evogeneao: The Tree of Life Explorer : Site
  • Evolution biologique : Eléments mobiles, Article
  • Les humains sont apparentés aux virus, C. Gilbert, Article
  • Inter-kingdom signalling: communication between bacteria and their hosts, 2009, Article
  • Expression of multiple horizontally acquired genes is a hallmark of both vertebrate and invertebrate genomes, 2015, Cambridge, UK, Article
  • Epigenetic Inheritance and Its Role in Evolutionary Biology: Re-Evaluation and New Perspectives, 2016, Texas, USA, Article
  • Widespread of horizontal gene transfer in the human genome, 2017, Shanghai, Chine, Article
  • Joël Bockaert – La communication du vivant : de la bactérie à Internet, 2017, Vidéo

 

virus-joke

Bah ! Nous étions « nano » avant qu’il soit cool d’être « nano » ! : Site

, ,

Poster un commentaire

Qu’est ce que l’information ?

Introduction

information-100Si nous nous intéressons à la nature même de l’information, il peut s’avérer intéressant de prendre en compte simultanément ses aspects techniques et sémantiques. Nous allons ici tenter d’observer conjointement ces éléments à priori différents pour tenter de comprendre le fonctionnement de cet étrange et familier objet d’étude. 

  1. Les aspects physiques décrivent l’émission sous forme de signaux, la nature des messages et des supports, l’encodage de l’information, la propagation dans le temps et dans l’espace, la réception de l’information et son traitement par le récepteur. 
  2. Les aspects sémantiques décrivent le cadre dans lequel ces informations prennent sens. L’information ne se transforme en communication et éventuellement en action que dans un contexte particulier, dans un environnement spécial marqué par des limites qui  définissent un système.  

Plutôt que d’aborder ces deux sujets de manière classiquement analytique, le choix est fait de les regarder ensemble. C’est l’approche systémique qui est retenue. Nous nous intéressons à la fois au message et au système dans lequel il est échangé, à l’information et à la communication. Certains aspects relèvent des techniques, d’autres de la biologie. 

Précisons quelque peu la notion de système. De manière fondamentale, un message ou un canal de transmission sont considérés par Shannon comme des systèmes. Des bâtiments ou des objets peuvent être aussi étudiés ainsi. Concernant les organisations humaines, une entreprise, une ville, une école, un hôpital ou une nation sont des systèmes partiellement régis par des politiques.  Un exemple de système pourrait être un homme observé de manière multidisciplinaire. Dans le domaine du vivant, un autre exemple peut être un écosystème. Un peu n’importe quoi en fait peut être considéré comme un système. Tout objet dont on souhaite modéliser le fonctionnement et le cycle de vie. L’information est ce que les composantes du système échangent via différents canaux pour que l’ensemble prospère. Le système est caractérisé par ses limites, par des flux d’information internes et externes, par des actions effectuées et subies. 

Selon les théories de Darwin, le système s’adapte à son environnement ou bien il disparaît pour des raisons internes ou externes. L’objet de ce billet est donc de tenter de mettre en évidence les sortes de systèmes dans lesquels les informations prennent un sens. Des antisystèmes s’opposent parfois aux systèmes. Les relations entre ces deux entités sont également riches d’enseignement. Tout antisystème qui s’exprime majoritairement se transforme en système. Le changement apporte à l’ensemble système-antisystème un avantage adaptatif qui favorise possiblement la diversité. Mais ce qui semble le plus intéressant dans les systèmes est que ceux-ci disposent de la capacité de changer de manière interne, parfois de manière remarquablement rapide, souvent avec difficulté. Et de tenter de dégager quelques propriétés invariables des informations d’une part, et des systèmes dans lesquels celles-ci circulent et prennent sens.

Quelques liens

Sur Wikipédia : Information, Communication, Approche systémique

Système Antisystème Systémique
 systeme  antisysteme  systemique

La théorie de Shannon

Shannon définit en 1948 la nature physique de l’information dans son article « A mathematical Theory of Communication ». Cette étude prend place dans le cadre des aspects théoriques de l’information. Il s’agit d’optimiser le fonctionnement du téléphone, de la radio, de la télévision et des machines à calculer. Shannon définit à cette occasion le bit comme unité de l’information. Un schéma général de la transmission de l’information est proposé. Un émetteur encode un message d’information et le transmet à un récepteur via un signal qui transite par un canal. Le récepteur procède au décodage du message. La transmission de l’information est réalisée en présence d’un bruit susceptible d’affecter le signal et la capacité du message à être perçu. En considérant que le message et le canal sont les éléments constitutifs d’un même système, Shannon en calcule l’entropie et fournit une méthode de physique statistique qui permet d’optimiser l’encodage des signaux électriques transitant par les canaux.

Nous supposerons que la figure 1 s’avère générale et possible à appliquer à tout type d’information, que celle-ci soit électrique, chimique, sonore ou visuelle, quelque soit le système. Un élément d’un système peut être alternativement source ou destination de l’information.

shannon-model

Diagramme schématique d’un système de communication général

Types d’information

Six différents types d’information sont alors distingués dans ce billet théorique. Les systèmes dans lesquels ces informations sont échangées sont marqués en bleu :

DNA Analysis.

Analyse de l’ADN

1/ L’information génétique / cellule, individu, groupe, population, espèce, biosphère : La vie de l’ensemble des êtres de la planète dépend de l’information génétique inscrite dans des gènes, des chromosomes et des génomes. L’ADN et l’ARN constituent les supports de l’information génétique communs à l’ensemble des êtres vivants, présents dans chaque cellule. Des processus génétiques et épigénétiques jouent un rôle majeur dans le développement, l’homéostasie et l’adaptation des individus, des groupes et des espèces à leur environnement. Une variété de molécules jouent le rôle de messages microscopiques qui rendent possible le fonctionnement synchronisé des cellules. Chez les animaux et l’homme, des cellules différenciées forment des systèmes internes aux individus (immunitaire, cardio-vasculaires et autres) qui communiquent entre eux et avec l’environnement de manière automatique.

brain

Le cerveau est l’organe le plus important… d’après le cerveau

2/ L’information neurologique / individu, système nerveux central, espèce : Les animaux et les hommes présentent des capacités remarquables à traiter de grandes quantités d’informations, à éprouver des sensations et des émotions qui peuvent être mémorisées et communiquées. Ces possibilités sont liées au développement au cours de l’évolution et du cycle de vie d’un système nerveux complexe, impliqué dans des fonctions vitales, motrices, sensorielles et logiques. Le fonctionnement de l’encéphale dépend de l’activité de groupes de neurones qui forment des réseaux spécialisés dans la réalisation de différentes activités physiologiques. L’influx nerveux de nature électrique et biochimique rend possible des actions réflexes, non intentionnelles, ou bien au contraire rationnelles, poursuivies sur le long terme, sur la base de connaissances acquises et mémorisées.

bright-320

Personne n’a jamais blessé sa vue en regardant le bon côté des choses

3/ L’information sociale directe / individu, groupe, population, société, nation : Perçue de manière directe, sans nécessité d’un dispositif technique, l’information sociale directe est échangée chez les hommes et les animaux dès le plus jeune âge. Ces échanges s’avèrent vitaux pour la constitution des individus, des groupes et des espèces. Des informations fixes ou mouvantes viennent guider les actions individuelles ou collectives réalisées en interaction avec l’environnement. Chez l’homme, liées aux sphères personnelles, professionnelles et privées, des informations individuelles et collectives sont gérées. Des langues, des codes, des conventions, des habitudes et des lois font partie des outils à acquérir et mémoriser pour communiquer. Des moments et des lieux s’avèrent particulièrement favorables aux échanges, accompagnant le travail et les loisirs, les politiques, le jeu et le rêve.

thinner-book-320

Vous avez l’air vraiment plus mince… Merci, on m’a enlevé mon appendice

4/ L’information médiée traditionnelle / individu, groupe, population, société, nation : Spécifiquement humaine, l’information médiée participe grandement au développement et à l’homéostasie chez l’homme. Les objets d’information traditionnels tels que les livres, les journaux et les correspondances présentent de nombreux atouts liés à leur manipulation aisée. La radio, la télévision et le cinéma sont considérés dans ce billet comme de tels médias. Ce type d’information est constitué de dessins, de logos, de publicités, d’informations écrites en différentes langues, d’émissions radiophoniques et télévisuelles. Il s’agit d’images fixes et animées, enregistrées et véhiculées sur une variété de supports, de pages, d’étiquettes, de panneaux, d’affiches et d’écrans. Certains messages d’information dont la durée de vie souhaitée est plus longue sont entreposés dans des bibliothèques, des archives et des musées dont la gestion incombe aux individus et communautés, aux communes et aux cités, aux institutions et aux états. Le vote constitue un mode d’information sociale tout à fait intéressant. Provenant de la multitude, un message est adressée à un seul qui tente d’appliquer et de défendre l’intérêt commun pendant un certain temps. Un seuil statistique est associé à la procédure.

ancestors-tails-320

C’est exact, chérie, nos ancêtres avaient une queue.

5/ Les machines, l’information médiée numérique / individu, groupe, population, société, nation, biosphère : L’homme est assisté dans ses travaux et ses loisirs par de nombreuses machines comme par exemple des voitures ou des ordinateurs qui augmentent ses possibilités physiques et intellectuelles. Des capteurs constituent en quelque sorte les organes des sens de ces machines. Tout signal transmis est susceptible d’être transformé en un flux binaire qui facilite grandement la transmission, l’acquisition, la mémorisation et le traitement des données. Les microscopes, télescopes et appareils photos voient ainsi leurs performances notablement augmentées. Les ordinateurs, les smartphones, les drones, les bots et les robots rendent possible l’échange de mails, la recherche d’information, la réalisation de tâches répétitives ou impossibles à réaliser autrement. Des machines dédiées au calcul permettent encore la simulation de systèmes en vue de valider des modèles et de s’essayer à la prévision. Liée à des algorithme multiple, l’intelligence artificielle peut se développer. Quelques applications notables incluent la reconnaissance automatique des voix et des visages ou la traduction automatique des textes. Des maîtres d’école, des maîtres d’ouvrage et des maîtres d’oeuvre partagent des informations sur des blogs et sur des plateformes comme Wikipédia et GitHub, accessibles via les réseaux téléphoniques et Internet. 

money-320

Restes avec moi ce mois, s’il te plait !

6/ La monnaie / individu, groupe, population, société, nation : Dernier petit détail relatif aux échanges de biens et de services, l’argent peut être considéré comme une information sociale numérique. L’unité est la devise associée à un ou plusieurs supports tels que le métal, le papier infalsifiable ou la base de donnée sécurisée. La monnaie est une information spéciale en ce sens qu’elle sert à l’échange des biens et des services (matière, énergie, travail). Sa valeur réside dans l’échange qu’elle facilite. L’authenticité de la monnaie et la préservation du support sont garantis par les banques sous le contrôle des états et des lois. Dans le cas intéressant des crypto-monnaies, l’authenticité est assurées de manière algorithmique, par la chaîne de blocs. La confiance ou son absence en un système monétaire reste une méta-information dont le caractère est typiquement humain, socio-psychologique et légal. Elle découle des pratiques des individus et des banques, des législations et donc des politiques.

Accès, valeur et coût, cycle de vie de l’information

L’émission d’information n’apparaît pas être un acte neutre. L’info présente toujours un aspect ciblé. Des éléments ou bien un public particulier sont visés avec une part d’incertitude quant à la perception ou la réception. Un codage particulier est susceptible de conférer à un message un aspect confidentiel. Seul le public visé a accès à l’information. Le décodage lui confère sa valeur. Utilisée notamment en philosophie, en sciences économiques et en sciences sociales, le concept de valeur qualifie fréquemment des individus ou des biens matériels et immatériels, incluant l’information. La production de l’information quelque soit sa nature représente encore un coût, régulé possiblement par les lois du marché. Plus rapidement encore que les êtres vivants, l’information naît, se propage et disparait.

Conclusion

Qu’elle soit de nature (bio)chimique, (bio)physique ou (bio)électrique, l’information semble avoir été façonnée au cours du temps afin d’optimiser trois fonctions différentes : la transmission, la mémorisation et la réalisation d’opérations logiques. L’information est donc l’élément qui confère à un système la capacité de s’auto-organiser, autrement dit d’agir sur l’environnement pour diminuer son entropie, ou bien encore pour augmenter son ordre interne. Que l’information soit naturelle ou culturelle, les systèmes acquièrent au cours du temps des mécanismes qui leurs permettent de se « connaitre » eux-même. Proposer dès lors une information sur l’information relativement complète, une communication sur la communication, une systématique des systèmes, nécessiterait plus qu’un billet de blog ! En relation avec l’énergie et la matière qu’il s’agit sans doute d’utiliser judicieusement, les systèmes servent de décor à des réservoirs et à des flux d’information multiformes. La systémique apporte une méthode théorique susceptible de faciliter la transition de sociétés mécaniques centralisées et uniformes à des sociétés qu’il faut sans doute souhaiter plus organiques, disposant d’une intelligence à la fois individuelle, collective et distribuée.

iambiante

Exemples d’informations graphiques

L’information avec le temps est ce qui nous forme et nous transforme. En 2010 et 2011, Jean Giraud alias Mœbius présente une exposition intitulée “Exposition Mœbius, Transe Forme”. Quelques dessins  de l’artiste à l’oeuvre foisonnante et multiforme viennent poursuivre ce billet.

Site officiel : https://www.moebius.fr/

moebius

Fabrication de l’information médiée, d’après l’affiche originale de « Transe Forme »

lincal-de-moebius

moebius_23

winter.png

72_1444_tomos-b-im-accueil.gif

Pour les fans : In Search of Moebius (BBC 4 Documentary) : Vidéo

Private joke, La bande à Mœbius : Henri Paul de Saint-Gervais, 2016/12/29 : Vidéo

Exemples d’informations textuelles

Quelques citations d’auteurs connus et inconnus viennent illustrer la notion d’information textuelle :

La parole est moitié à celuy qui parle moitié à celuy qui l’escoute

Montaigne, Essais, 1580

Dispositif de lecture à distance imaginé par Paul Otlet 

« On peut imaginer le télescope électrique, permettant de lire de chez soi des livres exposés dans la salle teleg des grandes bibliothèques, aux pages demandées d’avance. Ce sera le livre téléphoté. »

Otlet Paul, Traité de documentation : le livre sur le livre, théorie et pratique, Bruxelles, Editions Mundaneum, 1934

Un appareil personnel imaginé par Vanevar Busch

« Imaginons un appareil de l’avenir à usage individuel, une sorte de classeur et de bibliothèque personnels et mécaniques. Il lui faut un nom et créons-en un au hasard, « memex » fera l’affaire. Un memex, c’est un appareil dans lequel une personne stocke tous ses livres, ses archives et sa correspondance, et qui est automatisé de façon à permettre la consultation à une vitesse énorme et avec une grande souplesse. Il s’agit d’un supplément agrandi et intime de sa mémoire. »

Vannevar Bush, As we may think, The Atlantic Monthly, Washington d.c., 1945

What is time, Mr Shannon ?

We know the past but cannot control it. We control the future but cannot know it.

Nous connaissons le passé mais nous ne pouvons pas le contrôler. Nous contrôlons le futur mais nous ne pouvons pas le connaitre. Au-delà du bon mot, pour Shannon, deux éléments changent de statut avec le temps : l’information et l’action. L’information en relation avec le passé et le présent n’est connue avec certitude que si elle est déjà réceptionnée. L’action se positionne résolument dans le présent et le futur. Elle constitue un pari qui alimente l’information précisément.

Un message contenant du bruit et cependant lisible

Sleon une édtue de l’Uvinertisé de Cmabrigde, l’odrre des ltteers dnas un mot n’a pas d’ipmrotncae, la suele coshe ipmrotnate est que la pmeirère et la drenèire lteetrs sinoet à la bnnoe pclae. Le rsete peut êrte dnas un dsérorde ttoal et vuos puoevz tujoruos lrie snas porblmèe. C’est prace que le creaveu hmauin ne lit pas chuaqe ltetre elle-mmêe, mias le mot cmome un tuot.

Par T.S. Eliot, The Four Quartets, 1943

And time future contained in time past.

Exemple d’information audio

WITHIN, (En…, A l’intérieur de …) Ian Clarke : https://www.youtube.com/watch?v=Y6U-vE8YKE0

Vous êtes susceptible de voir ci-dessous une publicité qui finance l’excellent logiciel libre WordPress.

Poster un commentaire

Dans la caverne enchaînés et fichés ! Oui, mais avec Platon

Les traces des concepts d’information et de communication se perdent dans les méandres du temps. Ainsi chez les grecs, Hermès est le messager des dieux, donneur de la chance, inventeur des poids et des mesures, gardien des routes et des carrefours, des troupeaux, des voyageurs et du commerce. Il guide les héros et les voleurs et conduit les âmes au royaume des morts. Demi-sœur d’Hermès, Athéna est vénérée pour sa sagesse. Elle conseille les héros, aide à l’élaboration des stratégies militaires, assiste les artisans, les artistes et les maîtres d’école. Elle personnifie la pensée. Fille d’Ouranos (le Ciel) et de Gaïa (la Terre), Mnémosyne enfin invente les mots et le langage. Aimée de Zeus, la déesse de la mémoire conçoit les neuf Muses parmi lesquelles Clio, muse de l’histoire.

Tels des super héros Marvel, les dieux antiques ont des pouvoirs spéciaux qui les différencie des simples mortels et qui leurs sont donnés par leurs attributs. Hermès porte des sandales et un chapeau muni d’ailes, symboles de sa vélocité. Il possède un caducée, baguette de laurier ou d’olivier surmontée d’ailes et ornée de serpents dont il guérit les morsures. Athéna est une déesse guerrière pourvue de l’égide, cuirasse en peau de chèvre aux pouvoirs surnaturels, de la lance et du bouclier sur lequel est fixé la tête de Gorgone. C’est encore la déesse de la sagesse dont les attributs sont l’olivier et la chouette chevêche. L’animal est un symbole d’intelligence : il voit clair dans l’obscurité. Les attributs de Clio sont la trompette, la clepsydre (horloge hydraulique) et le rouleau sur lequel sont inscrits les hauts faits des Dieux que la muse leur rappelle pour les distraire. Le hasard enfin n’existe pas. Ce sont les dieux qui choisissent.

Mais attardons nous plutôt sur Platon et sur sa fameuse caverne, allégorie extraite de son livre “La République” (315 av. J.-C.). Il y est question de liberté et de vérité, deux notions toujours d’actualité en 2016. Dans cette allégorie, un groupe d’hommes se retrouve enchaîné, immobilisé dans une caverne. Cependant, une ouverture se trouve en hauteur, au-dessus de leur sinistre antre. Ces étranges prisonniers n’ont jamais vu la lumière directe du soleil. Ils aperçoivent sur le mur qui leur fait face les ombres des passants qui déambulent à l’extérieur. De leur propre existence, ils ne connaissent que des ombres projetées sur le mur (facebook ?) par un feu allumé derrière eux. Ils ne perçoivent des sons extérieurs que des échos. Ils prennent ces ombres et ces bruits déformés pour la réalité. « Pourtant, ils nous ressemblent », précise Platon. Sortir de la caverne, obtenir de nouvelles informations conformes à la réalité nécessite qu’un des prisonniers soit libéré, éventuellement contre son gré. Une fois habitué à la lumière extérieure, prenant conscience de sa condition précédente, l’échappé solitaire est contraint de retourner auprès du groupe. Il tente d’expliquer ce qu’il a vu, mais il est critiqué et ses explications sont violemment rejetées.

387px-raffael_067

Platon par Raphaël (1512)

Cette théâtrale et sombre allégorie est sans doute appréciée des enseignants qui exercent leur profession auprès d’élèves et d’étudiants parfois distraits ! Sans doute nous imaginons nous tous parfois dans le rôle du prisonnier évadé essayant non sans difficulté de transmettre une information. Elle inspire toujours les réalisateurs, comme le montre le populaire film de science fiction « The matrix » : « Remember, all I’m offering is the truth, nothing more ». Tels Socrate, acteurs d’une antique tragédie dont le destin est dicté par les dieux, enchaînés à nos gènes, à notre environnement, à notre histoire personnelle, fichés et catégorisés de manière informatique, nous le sommes tous certainement. Oui mais avec Platon ainsi que de nombreux autres, sur les épaules desquels il est possible de se hisser pour tenter de voir plus loin… 

378px-library_of_congress_rosenwald_4_bl-_5r

Manuscrit allemand, vers 1410

Étymologie du mot information

En français, l’information est « ce qui donne forme à l’esprit », ou de manière logiquement complémentaire « ce qui réduit l’incertitude », notamment l’incertitude inhérente au futur. Le mot provient du verbe latin « informare », qui signifie « donner forme à » ou « se former une idée de ». Le préfixe « in » dérivé de « intra » désigne l’intérieur. Le mot latin « informatio » est traduit en français par « concept » ou « idée ». En grec, la notion de forme s’exprime de deux manières quasiment synonymes : μορφή (morphe) qui désigne la forme des choses que nous observons, et εἶδος (eidos) « sorte, idée, forme, pensée, proposition » qui signifie l’idée habituelle que nous nous faisons d’une chose. Le mot πληροφορία (plērophoria) « mener à bien entièrement », « transporter complètement » est une traduction littérale du mot information. Ainsi, les étymologies latines et les traductions grecques rendent assez bien compte du sens premier me semble-t-il : l’information est une représentation codée du réel qui peut être aisément transmise à d’autres personnes. Alors que l’information génétique « donne forme » au corps du niveau microscopique au macroscopique, l’information sociale régule le fonctionnement des individus, des groupes, des populations et des espèces – bref donne forme à l’esprit.

[A suivre…]

Quelques liens : Hermès, Allégorie de la caverne, Red pill and blue pill (en), Platon, SocrateL’école d’Athènes, Des nains sur des épaules de géants

Informatisation des données personnelles, fichiers électroniques nationaux :

Poster un commentaire

Information et commerce au 18ème et 19ème siècle : deux allégories.

L’information constitue un instrument pour toutes sortes d’activités et parmi elles le commerce, comme le montrent deux images du web récemment numérisées. Datées du 18ème et 19ème siècle, ces remarquables allégories évoquent de plaisante façon les thèmes des échanges commerciaux sur mer et sur route; une invitation au voyage et peut être au départ en vacances.

La France offrant la Liberté à l’Amérique

france-amerique-1784-f

Peinture sur toile, 1784, Jean Suau (1755-1841), visible au Musée Franco Américain, proche de Soisson. Photo RMN-Grand Palais (Château de Blérancourt) / Gérard Blot

  • Description

Au centre, se trouve l’allégorie de la France en manteau bleu, fleurs de lys et cuirasse. Elle tient par la main la Liberté et l’offre à l’Amérique représentée par un Indien portant une coiffe à plumes, qui la reçoit sur son embarcation. La Liberté porte dans sa main droite le sceptre symbole de souveraineté et dans sa main gauche le bonnet phrygien icône de la liberté. 

En arrière plan, les allégories de la Victoire représentée avec les ailes et tenant une couronne de laurier, de la Paix agenouillée coiffée d’une couronne de fleurs, de l’Abondance tenant un bouquet de fleurs et d’épis de blé, et du Commerce montrant une carte et une boussole.

Au-dessus d’eux, la Renommée annonce l’événement de sa trompette. Sur la gauche, des débardeurs entassent et déplacent des marchandises destinées aux navires de différentes nations. A l’extrême droite se trouve Hercule qui chasse de sa massue le Léopard anglais.

  • Commentaires

Le tableau témoigne de l’intérêt que connut en France la Révolution américaine (1775-1783). Il met en scène de manière imagée l’aide militaire et financière française apportée aux insurgés américains. Il résume les intérêts français de l’époque et les mobiles qui se cachent derrière l’intervention : revanche contre l’Angleterre suite à la guerre de Sept Ans, aspirations à la reconquête du commerce maritime, expansion des empires coloniaux, gloire de la France dans ses alliances. On remarque l’identité de la république américaine représentée par un indien. La carte et la boussole sont associées au commerce. Jean Suau remporte avec cette oeuvre en 1784 le concours de l’Académie royale de Toulouse.

https://www.histoire-image.org/etudes/france-offrant-liberte-amerique

Commerce and Navigation, – Lake, Internal, and Coasting Trade

Commerce-Navigation-1024x865

Lithographie introductive du rapport “A Synopsis of the Commercial and Revenue System of the United States”, 1847, E. Weber & Co. Balto. Inscriptions en pied de page : « J. G. Bruff, Del.” , “Lith. of E. Weber & Co. Balto. », “Commerce and Navigation, – Lake, Internal, and Coasting Trade.”, “Entered according to aist of congress in the year 1847 by Rob.t Mayo in the clerk office of the Dis.t Court of the District of Columbia.”

Le titre complet du rapport s’avère relativement long, suivant les usages de l’époque : “A synopsis of the commercial and revenue system of the United States, as developed by instructions and decisions of the Treasury Department for the administration of the revenue laws: accompanied with a supplement of historical and tabular illustrations of the origin, organization, and practical operations of the Treasury Department and its various bureaus, in fulfilment of that system: in eight chapters, with an appendix.”, 1847, 8 chapitres, 436 pages. Le traité détaille les lois, les instructions et les décisions d’exécution relatives aux produits importés aux Etats-Unis. Deux lithographies allégoriques introduisent ce livre parmi lesquelles en français : “Le Commerce et la Navigation, – Commerce lacustre, interne et côtier“.

  • Description de la gravure

En arrière plan, des vaisseaux de commerce de différents types naviguent sur des étendues d’eau. Sur la côte, plusieurs constructions : un phare, et une tour supportant un sémaphore. Le quai d’un port est parcouru de marchands en haut de forme et de dockers. A gauche, des entrepôts parmi lesquels circule un train à vapeur transportant des passagers et des marchandises.

Au centre, au milieu de diverses marchandises sur l’embarcadère, un personnage féminin symbolise la liberté, un pied en appui sur un globe. Elle côtoie  un aigle supportant un écu décoré d’un fanion américain avec 13 étoiles. Un grand bouclier est en appui sur une ancre de marine. Au dessus d’elle vole Mercure ou Hermes, dieu patron antique des voyageurs et du commerce, des gains financiers, des messages et de la communication, caractérisé par ses pied et son casque ailé, caducée à la main.

 Au premier plan en bas, se trouvent des rouleaux sur lesquels on peut lire : “Système d’entrepôt américain”, “Produits domestiques”, “Produits étrangers”, “Commerce interne et côtier”, “Imports et exports”,  “Tarif des États-Unis”, “Carte du monde”, “Recettes de la marine, Système de phare”. Un “Livre de comptabilité” complète la collection. Des instruments de marine parmi lesquels on reconnaît une sonde à main, une poulie, un sextant, un compas droit, une balance.

  • Commentaires

Le dessin met en scène le commerce, le transport et la navigation côtière aux États-Unis et les liens étroits que ceux-ci entretiennent avec les technologies. On remarque parmi les modes de transport un train à vapeur avec passagers et marchandises, un bateau à vapeur propulsé par roue à aube, deux innovations majeures de l’époque. Le réseau ferré américain est déjà étendu comme le montre une carte de 1840 numérisée à la Bibliothèque du Congrès : http://hdl.loc.gov/loc.gmd/g3701p.rr003340. Parmi les innovations permettant la communication, le sémaphore placé à l’entrée du port annonce l’arrivée de nouveaux bateaux.

https://fr.wikipedia.org/wiki/S%C3%A9maphore_(signalisation_maritime)

Poster un commentaire

La Théorie de l’Information de Claude Shannon

“Je sais que j’ai été compris lorsqu’on m’a répondu” Claude Shannon

Publié en 1948, l’article “A Mathematical Theory of Communication” de Claude Shannon propose de modéliser certains des concepts clés de l’information et de la communication. Nous sommes à l’issue de la seconde guerre mondiale. Le radar a prouvé son utilité, Enigma est résolue. Alors que des médias tels que la radio et la télévision rencontrent un large succès, que des moyens de télécommunication tels que le téléphone se développent, les travaux de Shannon et de quelques autres mathématiciens  vont conduire à la mise au point des premiers ordinateurs. Mais la théorie de Shannon s’avère remarquablement générale et protéiforme. Elle va notablement influencer des disciplines qui restent à être inventées telles que la robotique, l’intelligence artificielle ou la biologie moléculaire et cellulaire et contribuer significativement à l’amélioration des méthodes d’échange de l’information. Ce billet propose en commémoration du centenaire de la naissance du théoricien une courte biographie, une traduction de l’introduction de l’article ainsi que quelques idées générales sur l’information.

Claude Shannon (1916-2001)

shannon

Après un double “Bachelor of Science” en mathématiques et en génie électrique, Shannon est embauché à temps partiel en 1936 en tant que chercheur assistant au département de génie électrique du MIT (Massachusetts Institute of Technology) sous la direction de Vanevar Bush. Shannon manipule “l’analyseur différentiel” qui était le calculateur analogique le plus avancé de l’époque, capable de résoudre des équations différentielles du sixième degré. Son mémoire de master soutenu en 1938 “A Symbolic Analysis of Relay and Switching Circuits” montre que des arrangements de relais permettent de résoudre des problèmes d’algèbre booléenne, que des machines électriques peuvent faire des opérations logiques, ouvrant la voie à la création de calculateurs d’une nouvelle génération. Shannon obtient simultanément en 1940 un master de science en Génie électrique et un doctorat (PhD) en Mathématiques sur un sujet de Génétique des populations “An Algebra for Theoretical Genetics”. Il devient membre de l’“Institute for Advanced Study” à Princeton et croise occasionnellement en ces lieux des scientifiques de renom tels que Hermann Weyl, John von Neumann, Albert Einstein et Kurt Gödel. Shannon travaille ensuite à partir de 1940 aux laboratoires Bell réputés au niveau mondial dans le domaine des télécommunications. Il prend le thé en 1943 avec le mathématicien et cryptographe Alan Turing, détaché pour quelques mois de Bletchley Park. Turing théorise depuis 1936 une machine à calculer universelle et améliore des machines électromécaniques dédiées à la cryptanalyse. Dès 1945, la publication longtemps classée de Shannon “A Mathematical Theory of Cryptography” est remarquée des spécialistes. En 1948, les laboratoires Bell nomment “transistor” leur dernière invention destinée à remplacer les relais dans les circuits logiques. La même année, Norbert Wiener, professeur de mathématique au MIT publie “Cybernetics: Or Control and Communication in the Animal and the Machine”, en collaboration avec Shannon pour le très mathématique chapitre 6. En juillet 1948, Shannon publie la première partie de l’article : “A Mathematical Theory of Communication” dans la revue Bell System Technical Journal. La deuxième partie est publiée en octobre de la même année.

Dans le but d’optimiser les systèmes de transmission ainsi que le fonctionnement des calculateurs, une théorie de la transmission de l’information est proposée. Les objectifs sont de trouver des méthodes qui permettent d’améliorer l’efficacité des communications, d’optimiser la quantité d’information transmise dans des canaux dont la capacité est limitée et qui génèrent du bruit. Parmi ses aspects novateurs, l’article définit le bit (binary digit ou chiffre binaire, bit signifie encore « petit ») comme l’unité élémentaire de l’information. Un modèle générique est proposé qui rend compte de la transmission de l’information quelque soit son type : information discrète, continue ou mixte. Le cas de l’information discrète avec et sans bruit est développé en première partie, aboutissant à la démonstration de multiples théorèmes illustrés d’exemples. Le calcul de l’entropie dite de Shannon est proposé. Cet indicateur permet de caractériser de manière statistique la quantité maximale d’information qu’il est possible de transmettre dans un canal. La formulation retenue – une fonction pondérée du logarithme de la probabilité de réception d’un signal – répond à la même équation que l’entropie de Boltzman, une grandeur établie dans le contexte de la thermodynamique. Une même formule mathématique permet de décrire de manière statistique la dissipation de l’énergie dans un système et la transmission de l’information dans un canal. De manière simplifiée et quelque peu intuitive, l’entropie caractérise le niveau de “désordre” d’un système, le niveau de variation potentielle des signaux constitutifs d’un message, l’hétérogénéité du signal, calcule l’incertitude moyenne de réception d’un signal. Plus l’entropie d’un signal discret est élevée, plus la quantité d’information susceptible d’être transmise de manière concise est importante.

Le caractère multidisciplinaire de l’information et de la communication inspire alors de nombreux scientifiques de différentes spécialités : Shannon devient le fondateur de la “Théorie de l’Information”. Il assiste en 1950, 1951 et 1953 aux conférences de la fondation Macy dans lesquelles sont discutées la cybernétique, une théorie multidisciplinaire de l’action. Ces événements réunissent des scientifiques américains autour de personnalités comme Wiener et Von Neumann. On y discute de modèles et de processus de décision qui concernent aussi bien les machines à calculer, que la neurophysiologie ou la psychologie. Wiener développe les concepts de “boîte noire” et de “feedback » ou rétroaction. Ce mouvement de pensée dont l’intérêt relève de l’histoire des sciences influencera notablement les scientifiques de cette époque, accompagnant l’émergence de la biologie moléculaire et cellulaire, de la psychophysique, des sciences cognitives, de l’intelligence artificielle ou de l’informatique.

shannon-bit

Un doigt levé ou baissé, un interrupteur ouvert ou fermé, une pièce positionnée coté pile ou face, constituent des exemples simples d’unité atomique de l’information et nommé bit ou binary-digit (signal binaire) par Shannon et JW Tukey.

A Mathematical Theory of Communication” est publié dans “The Bell System Technical Journal” en juillet et octobre 1948. Une traduction de l’introduction est ici proposée.


A Mathematical Theory of Communication” : Traduction de l’introduction

Le récent développement de diverses méthodes de modulation telles que la PCM (modulation d’impulsion codée) et la PPM (modulation en position d’impulsions) qui échangent de la bande passante contre du rapport signal-bruit a intensifié l’intérêt d’une théorie générale de la communication. Une base d’une telle théorie se trouve dans les articles importants de Nyquist et Hartley à ce sujet. Dans le présent article, nous étendrons la théorie pour inclure un certain nombre de nouveaux facteurs, en particulier l’effet du bruit dans le canal, et les économies possibles dues à la structure statistique du message original et dues à la nature de la destination finale de l’information.

Le problème fondamental de la communication est celui de reproduire en un point, soit exactement soit approximativement un message sélectionné à un autre point. Fréquemment, les messages ont une signification; c’est à dire qu’ils se réfèrent à ou sont corrélées avec certains systèmes, avec certaines entités physiques ou conceptuelles. Ces aspects sémantiques de la communication ne relèvent pas du problème de l’ingénierie. L’aspect important est que le message réel est un élément choisi parmi un ensemble de messages possibles. Le système doit être conçu pour fonctionner pour chaque sélection possible, pas seulement celle qui sera effectivement choisie car celle ci est inconnue au moment de l’envoi.

Si le nombre de message dans l’ensemble est fini alors ce nombre ou toute fonction monotone de ce nombre peut être considéré comme une mesure de l’information produite quand un message est choisi parmi un ensemble, tous les choix étant équiprobables. Comme l’a souligné Hartley le choix le plus naturel est la fonction logarithmique. Bien que cette définition doive-t-être généralisée considérablement lorsque l’on considère l’influence des statistiques du message et lorsque nous avons une gamme continue de messages, nous allons utiliser dans tous les cas une mesure essentiellement logarithmique.

La mesure logarithmique est plus commode pour diverses raisons:

  1. Elle est plus utile de manière pratique. Des paramètres d’importance en ingénierie tels que le temps, la bande passante, le nombre de relais, etc., ont tendance à varier linéairement avec le logarithme du nombre de possibilités. Par exemple, l’ajout d’un relais à un groupe double le nombre d’états possibles des relais. On ajoute 1 au logarithme en base 2 de ce chiffre. Un doublement du temps multiplie au carré le nombre des messages possibles, ou double le logarithme, etc.
  2. Elle est plus proche de notre sens intuitif que de la mesure elle-même. C’est étroitement liée à (1) puisque nous mesurons intuitivement les entités en comparaison linéaire avec les standards communs. On ressent, par exemple, que deux cartes perforées doivent avoir deux fois la capacité d’une seule pour le stockage de l’information, et deux canaux identiques deux fois la capacité d’un seul pour transmettre l’information.
  3. Elle est mathématiquement plus appropriée. Un grand nombre d’opérations critiques sont simples en termes de logarithme mais exigeraient autrement un retraitement maladroit en terme de nombre de possibilités.

Le choix d’une base logarithmique correspond au choix d’une unité de mesure de l’information. Si la base 2 est employée, les unités qui en résultent peuvent être appelées digits binaires, ou plus brièvement bits [binary digits], un mot suggéré par JW Tukey. Un dispositif à deux positions stables, comme un relais ou un circuit à bascule, peut stocker un bit d’information. Un nombre N de tels dispositifs peut stocker N bits, puisque le nombre total d’états possibles est 2N et log22N = N. Si la base 10 est utilisée, les unités peuvent être appelées chiffres décimaux. Puisque

log2 M = log10 M / log10 2 = 3.32 log10 M,

un chiffre décimal correspond approximativement à 3 ⅓ bits. Une roue à chiffres sur une machine à calculer de bureau a dix positions stables a donc une capacité de stockage d’un chiffre décimal. Dans les travaux analytiques dans lesquels l’intégration et le calcul différentiel sont impliqués, la base e est parfois utile. Les unités d’information résultantes seront appelées unités naturelles. Un changement de la base a en base b exige simplement une multiplication par logb a.

Par un système de communication, nous entendrons un système du type de celui indiqué schématiquement dans la Fig. 1. Il est constitué essentiellement de 5 parties:

  1. Une source d’information qui produit un message ou une suite de messages destinés à être communiqués au terminal récepteur. Le message peut être de différents types: par exemple (a) Une séquence de lettres comme dans un système de type télégraphe ou télétype; (b) Une simple fonction du temps f(t) comme dans la radio ou la téléphonie; (c) Une fonction du temps et d’autres variables comme avec la télévision noir et blanc – ici le message peut être pensé comme une fonction f(x;y;t) de deux coordonnées spatiales et du temps, l’intensité lumineuse au point (x;y) et au temps t sur la plaque du tube de récupération; (d) Deux ou plusieurs fonctions du temps, disons f(t), g(t), h(t) – c’est le cas dans le système de transmission du son en trois dimensions ou si le système est destiné à desservir plusieurs canaux individuels en multiplex. (e) plusieurs fonctions de plusieurs variables – avec la télévision couleur, le message consiste en trois fonctions f(x,y,t), g(x,y,t), h(x,y,t) définies dans un continuum tridimensionnel – nous pouvons aussi penser à ces trois fonctions comme des composantes d’un champs vecteur défini dans la région – de même, plusieurs sources de télévision en noir et blanc produiraient des « messages » constitués d’un certain nombre de fonctions de trois variables; (f) Diverses combinaisons se produisent également, par exemple pour la télévision avec une voie audio associée.
  2. Un émetteur qui intervient sur le message de manière quelconque pour produire un signal approprié à la transmission sur le canal. Dans la téléphonie cette opération consiste simplement à changer la pression sonore en un courant électrique proportionnel. Dans la télégraphie nous avons une opération d’encodage qui produit une séquence de points, de tirets et d’espaces sur le canal correspondant au message. Dans un système de multiplex PCM les différentes fonctions de la parole doivent être échantillonnées, comprimées, quantifiées et encodées, et finalement entrelacées convenablement pour construire le signal. Systèmes Vocoder, télévision et modulation de fréquence sont d’autres exemples d’opérations complexes appliquées au message pour obtenir le signal.
  3. Le canal est simplement le moyen utilisé pour transmettre le signal de l’émetteur au récepteur. Cela peut être une paire de fils, un câble coaxial, une bande de fréquences radio, un faisceau de lumière, etc.
  4. Le récepteur effectue habituellement l’opération inverse de celle effectuée par l’émetteur, reconstruisant le message à partir du signal.
  5. La destination est la personne (ou une chose) à laquelle le message est destiné.

shannon-modelNous souhaitons considérer certains problèmes généraux impliquant des systèmes de communication. Pour ce faire, il est d’abord nécessaire de représenter les différents éléments impliqués comme des entités mathématiques, convenablement idéalisées à partir de leurs équivalents physiques. Nous pouvons grossièrement classer les systèmes de communication en trois catégories principales : discret, continu et mixte. Par un système discret, nous entendons celui dans lequel le message et le signal à la fois sont une séquence de symboles discrets. Un cas typique est la télégraphie dans lequel le message est une séquence de lettres et le signal une séquence de points, de tirets et d’espaces. Un système continu est celui dans lequel le message et le signal sont tous deux traités comme des fonctions continues, par exemple, avec la radio ou la télévision. Un système mixte est celui dans lequel des variables discrètes et continues apparaissent, par exemple, la transmission de la parole en PCM.

Nous considérons d’abord le cas discret. Ce cas présente des applications non seulement dans la théorie de la communication, mais aussi dans la théorie des calculateurs, dans la conception des échanges téléphoniques et dans d’autres domaines. De plus, le cas discret constitue une base pour les cas continus et mixtes qui seront traités dans la seconde moitié du papier.

[…]


A Mathematical Theory of Communication” : le plan

Introduction, p379, fig. 1

Partie I : Systèmes discrets sans bruit
  1. Le canal discret sans bruit, p382, théorème 1, fig. 2
  2. La source discrète d’information, p384
  3. Des séries d’approximations de l’anglais, p388
  4. Représentation graphique d’un processus de Markoff, p389
  5. Sources ergodiques et mixtes, p390, fig. 3, 4, 5
  6. Choix, incertitude et entropie, p392, fig. 6, théorème 2, fig. 7
  7. L’entropie d’une source d’information, p396, théorème 3, théorème 4, théorème 5, théorème 6
  8. Représentation des opérations d’encodage et de décodage, p399, théorème 7, théorème 8
  9. Le théorème fondamental pour un canal sans bruit, p401, théorème 9
  10. Discussion, p403
  11. Exemples, p404
Partie II : Le canal discret avec bruit
  1. Représentation d’un canal discret avec bruit, p406
  2. Équivoque et capacité d’un canal, p407, théorème 10, fig. 8
  3. Le théorème fondamental pour un canal discret avec bruit, p410, théorème 11, fig. 9, fig. 10
  4. Discussion, p413
  5. Exemple d’un canal discret et de sa capacité, p415, fig. 11
  6. La capacité du canal dans certains cas spéciaux, p416, fig. 12
  7. Un exemple d’encodage efficace, p418
Appendice 1 : La croissance du nombre de blocs de symboles en condition d’état fini, p418
Appendice 2 : Dérivation de H, p419
Appendice 3 : Théorèmes sur les sources ergodiques, p420
Appendice 4 : Maximisation de la fréquence dans un système avec contraintes, p421

(à suivre)

Partie III : Préliminaires mathématiques, p623

18. Groupes et ensembles de fonctions, p623
19. Ensembles de fonctions limitées par la bande, p627
20. Entropie d’une distribution continue, p628
21. Perte d’entropie dans les filtres linéaires, p633, tableau 1
22. Entropie de la somme de deux ensembles, p635

Partie IV : Le canal continu, p637

23. La capacité d’un canal continu, p637
24. La capacité d’un canal avec une limitation de puissance moyenne, p639
25. La capacité du canal avec un pic de limitation de puissance, p642

Partie V : La fréquence pour une source continue, p646

26. Fidélité des fonctions d’évaluation, p646
27. La fréquence de la source en fonction d’une évaluation de la fidélité, p649
28. Le calcul des fréquences, p650

Remerciements, p652
Appendice 5, p652
Appendice 6, p653
Appendice 7, p655

A Mathematical Theory of Communication” : Figure 7

shannon-entropy

Dans le cas d’un signal binaire sans bruit, l’entropie présente plusieurs propriétés intéressantes qui justifient son calcul d’après Shannon. L’entropie représente la richesse en information d’un message. Soit un message constitué d’une suite de 0 et de 1, c’est lorsque la fréquence des 0 est statistiquement égale à celle des 1 que l’entropie et la quantité d’information susceptible d’être transmise sont maximales. Si un message ne contient que des 0 ou que des 1, son entropie est nulle et il ne transmet aucune information. De manière analogue, la colonne d’une table de données qui contient toujours la même information n’apporte aucune information et est inutile à l’ensemble. Le calcul de l’entropie peut être étendu à des systèmes discrets comportant un plus grand nombre de valeurs comme dans le cas du morse, de l’alphabet ou de l’ADN par exemple.

A Mathematical Theory of Communication” : Figure 8

shannon-correction

En présence de bruit, Shannon envisage la présence d’un observateur susceptible de corriger les données transmises de manière incorrecte. De manière pratique, sur les réseaux téléphoniques, la voie reste souvent compréhensible même en présence de bruit. Sur internet, l’observateur et la cible du message sont identiques. On s’assure de l’intégrité de transmission d’un fichier, par exemple, en calculant la somme de contrôle du fichier réceptionné et en la comparant avec la version d’origine, effectuant ainsi une sorte d’auto-rétroaction.

Commentaires et élucubrations

L’approche de Shannon pour modéliser l’information intrigue au premier abord : il ne s’intéresse pas au sens de l’information mais il modélise uniquement le signal et le bruit, la transmission et la perception par un « récepteur ». Il propose un modèle mathématique, technique et linguistique, indépendant de la sémantique. La théorie de la communication (titre de l’article) est en fait une théorie de la transmission de l’information. L’article est relatif à la télécommunication dans son aspect physique statistique. Pour Shannon, l’information est ce qui permet de résoudre l’incertitude relative à la transmission d’un signal. L’entropie permet de calculer l’incertitude moyenne de la réception.

Mais qu’est ce que l’information au sens commun? Une analogie est souvent faite entre l’information et la matière fluide, voire gazeuse. On parle ainsi de source d’information, de canal, de flux, de lacs de données et de torrents de bits. L’amélioration du débit internet rend possible l’apparition de l’informatique en nuage. Ces plaisantes métaphores font référence à la nature dynamique de l’information. Mais en fait l’information ne relève pas de la mécanique des fluides, elle est à la fois de nature matérielle et immatérielle. Elles nécessite un support pour exister, mais la même information peut transiter par des supports différents. Shannon cite une paire de fils, un câble coaxial, une bande de fréquences radio, un faisceau de lumière. De manière plus générale, on distingue l’information orale dont le support est l’air atmosphérique, l’information écrite qui nécessite une paroi, le papier ou la toile. Alors l’information peut être quantifiée de différentes manières.

L’efficacité de la transmission dépend étroitement d’un environnement physique particulier. La perception est liée aux aspects sensoriels du « récepteur » : sensibilité aux ondes sonores, visuelles ou électromagnétiques, sensibilité aux molécules chimiques ou biochimiques. Le caractère conscient ou inconscient, les paramètres psychosociaux de l’information modifient sa perception. De ces éléments dépend le fait que les infos soient éventuellement mémorisées, transformées en connaissances, et soient utiles. Des questions morales, éthiques, déontologiques et légales apparaissent fréquemment liées à l’émission et au traitement de l’information.

L’étymologie du mot « information » indique : dérivé de la racine latine « informatio » dont le sens est « ce qui donne forme à l’esprit », « ce qui instruit », « ce qui enseigne », « ce qui discipline ».  Le mot « information » est employé dans une variété de contextes. Le concept s’avère central dans des domaines aussi divers que la génétique, la culture ou les technologies. L’information ou son traitement est souvent associé à des termes polysémiques tels que « réplication », « transcription », « traduction », « mutation », « polymorphisme », « cycle de vie », « patrimoine », « identité » et « évolution ». Ainsi, patrimoine peut désigner à la fois le « patrimoine génétique » dans le cas d’espèce animales et végétales menacées, « patrimoine culturel » ou bien « patrimoine numérique ». L’identité peut être génétique, culturelle ou numérique. L’évolution peut être biologique, culturelle ou technologique.

En se focalisant sur les aspects physiques et statistiques du message et des canaux, Shannon prend en quelque sorte le contre-pied du sens traditionnel pour définir l’information. Il ne s’agit pas de donner forme à l’esprit mais de résoudre une incertitude. Il s’affranchit ainsi du message transmis et de sa signification pour raisonner au niveau technique. Il définit le bit (0 ou 1, oui ou non), et rend ainsi quantifiable l’information quelque soit sa nature. Celle-ci devient alors un objet qu’il est possible de quantifier tout autant que l’énergie, la masse, le temps, la distance ou que d’autres paramètres physiques moins prestigieux. Le bit peut alors servir de base de mesure unique pour des fonctionnalités de calcul, de mémorisation ou bien de transmission de l’information.

“Information is the resolution of uncertainty” Claude Shannon

Shannon propose ensuite le « diagramme schématique d’un système général de communication », figure 1, qui s’avère assez général, utilisé dans une multitude de domaines. Le physicien limite son raisonnement au cas de la transmission de l’information par les outils électriques de son époque : télégraphe, téléphone, radio, télévision. Il s’agit de transmettre un signal porteur d’informations en présence de bruit. La langue, le message, les mots et les lettres peuvent être analysés statistiquement et codés. Des analyses de fréquence permettent de calculer l’entropie. Cet indicateur statistique fournit des renseignements sur la variabilité des composantes, sur le niveau d’ordre ou de désordre constitutif d’un message. Le calcul de l’entropie présente quelque intérêt pratique dans des domaines autres que les télécommunications. Ainsi, dans le domaine de l’intelligence artificielle, les algorithmes génétiques permettent de trouver des solutions optimales dans un environnement contraint. Il s’agit d’augmenter l’entropie en introduisant des « mutations » et d’analyser l’adaptation aux contraintes des « mutants ». Au contraire, dans des algorithmes de classification automatique, il convient de minimiser de manière informatique l’entropie intra-classe pour faire émerger des classes homogènes. Les écologues utilisent encore l’entropie pour mesurer la diversité des espèces dans un écosystème, les sociologues utilisent l’indice de Theil fondé sur l’entropie pour mesurer la diversité des revenus dans une population.

Les relations entre l’entropie de Shannon, et l’entropie de Boltzman ont été étudiées par différentes personnalités scientifiques. Précédant Shannon de quelques années, Erwin Shrödinger dans “What is life” (1944) introduit la notion d’entropie négative ou néguentropie caractéristique selon lui de la vie. Il dresse dans ce même livre un portrait robot des fonctions que doit remplir l’ADN. Léon Brilloin tente de démontrer dans son livre “Naissance de la théorie de l’information” (1953) l’équivalence entre l’entropie de Botzman et celle de Shannon. Pour Shannon, l’entropie est un outil statistique qui permet de caractériser le niveau d’organisation d’un message d’information.

ADN et biologie

Qu’en est il du vivant et de l’ADN constitué de 4 base nucléiques transportant ainsi une information de caractère discret ? La célèbre molécule découverte en 1953 par Watson et Crick auxquels il est sans doute possible d’associer Rosalind Franklin et Wilkins constitue le support d’une information tout à fait particulière : l’information génétique. L’ARN messager ou une hormone peuvent être comparés à des messages ciblant des récepteurs particuliers. Les neurones peuvent être aussi considérés comme des émetteurs, des récepteurs et des canaux d’information. Un signal est une sorte de message et une interprétation large de la théorie peut apporter une meilleure compréhension des phénomènes observés chez le vivant et dans les sociétés. La figure 1 de Shannon s’avère particulièrement générique. Cependant, Shannon réfute ce genre d’interprétation, de même que la plupart des mathématiciens.

2016

Du Shannon de 1948 à Internet et au développement du web, à l’information libre sur Wikipédia, et aux logiciels et licences libres en poursuivant par les réseaux sociaux, un long chemin a été parcouru. L’usage des nouvelles technologies est devenu de nos jours banal. Il suffit de partager une langue, du matériel, un réseau et une prise électrique, et les informations sont obtenues facilement, les échanges sont aisés, le commerce électronique se développe, rendant possible l’émergence d’une société de l’information. Le numérique est devenu en quelques années un changement culturel  majeur autant qu’industriel ou technologique. De grosses entreprises dynamisent le secteur et une multitude d’acteurs secondaires se sont multipliés depuis les années soixante.

Monnaies et crypto-monnaies

Quelques remarques complémentaires en relation peu étroite avec l’article de Shannon concernent le commerce. La monnaie est de nos jours essentiellement dématérialisée. Ce sont des flux d’information qui permettent de faire des achats et des ventes, de régler des factures. Sur Internet, de nombreuses transactions se font via le protocole sécurisé https. La figure 8 de Shannon « Diagramme schématique d’un système de correction » peut avec quelque imagination être considérée comme un modèle de transaction monétaire. L’argent est transférée entre un émetteur – l’acheteur, et un récepteur – le vendeur. Un observateur vérifie la validité du transfert de l’information. Ce dernier acteur peut jouer une multitude de rôles supplémentaires comme vérifier que l’acheteur dispose bien de la somme qu’il souhaite dépenser, que le compte du vendeur a été correctement crédité. Le intermédiaires tels que le fournisseur d’accès, la banque, les organismes tiers, peuvent être perçus comme une autorité unique susceptible de générer la confiance, et ainsi de faciliter les échanges.

Jusqu’à présent seuls les états et les banques garantissaient cette fameuse confiance. L’introduction des crypto-monnaies comme le bitcoin marque une rupture dans cette situation. Dépendant d’Internet, le bitcoin assure en effet de manière mathématique, cryptographique et logique la confiance dans la validité des transactions. Il introduit pour cela la « chaîne de blocs » qui consiste en une base de donnée chiffrée et décentralisée de l’ensemble des transactions effectuées avec cette monnaie. La chaîne de bloc est susceptible d’être utilisée dans une variété de cas pour lesquels la confiance revêt un aspect critique. On peut ainsi envisager des applications dans les secteurs des données cadastrales, des activités notariales, de la validation de titres de propriété, de l’assurance, de la traçabilité, du vote sécurisé, voire des paris et des jeux. Élaboré dans un esprit libertaire pour faire émerger une monnaie qui échappe au contrôle des banques et des états, le bitcoin et la chaîne de bloc sont cependant susceptible de conduire à la modernisation de certaines fonctions régaliennes de ceux-ci, à la modernisation des transactions entre banques et organismes.

L’information libre, oh yeah

Le caractère commun de l’information numérique intéresse tout un panel d’acteurs : sociologues, psychologues, publicitaires, enseignants, politiciens, etc. Lorsqu’un référendum est organisé, un bit d’information est transmis d’un individu à une urne ! Une nouvelle discipline est même née au carrefour des sciences humaines et de l’informatique : les humanités numériques. Pour des scientifiques qui étudient cette transition de longue date tels que des personnalités comme Michel Serres,  Pierre Levy, Bernard Stiegler, Dominique Wolton, Monique Dagnaud, Richard Dawkins, etc, ou bien pour les praticiens tels que Richard Stallman, Tim Berners Lee et bien d’autres encore une “pensée numérique” est née qui s’appuie sur Internet, dont la logique s’avère aussi imparable que 01 et 01 font 10.

Conclusion

La fécondité d’une théorie, les possibilités nouvelles qu’elle est susceptible d’apporter peut étonner. En sciences de l’ingénieur : reconnaissance des caractères, des visages et de la voix, économie collaborative, transactions à haute fréquence :-(, Bitcoin, BitLand, Fab-Labs :-), Git, Stack Overflow et autres listes de discussion :-), impression 3D font partie de l’usage courant, ou vont le devenir. Dans le secteur tout à fait différent des biotechnologies : tests génétiques :-), plantes transgéniques résistant aux herbicides 😦 thérapie génique :-), thérapie cellulaire :-), etc. D’autres applications restent à être inventés, mais surtout, de nouveaux équilibres restent à être trouvés entre le virtuel et le réel, entre la théorie et la pratique, entre le dogmatisme et l’empirisme, entre la culture et la nature, ou bien encore entre les intérêts communs et particuliers.

Des concepts informatiques majeurs tels que “les échanges”, “la mémoire” ou bien “le calcul” de l’information nous rappellent sur les pas des cybernéticiens, que de nombreuses similitudes existent entre les hommes, les animaux, voire même les machines !

Dernière petite précision concernant le père de la théorie de l’information. Celui-ci prend plaisir à pratiquer le monocycle, à jongler, à construire des appareils amusants, non utilitaires et sa maison est remplie de telles inventions. Parmi celles-ci, on peut mentionner le THROBAC, un calculateur qui fait des opérations arithmétiques en chiffres romains, des “tortues” qui s’égarent dans les pièces, des machines de différentes sortes et de toutes tailles, une machine à jongler avec trois balles, ainsi que l’”Ultimate Machine”, un étonnant engin inutile dont l’idée originale est due à Marvin Minsky.  Le mathématicien fut encore observé en train d’essayer de battre les records de son fils au Pac-Man.

Texte original

bit-generation#0

Pour comprendre

Organismes

Pour le fun

Biologie

Génétique, biologie moléculaire, évolution biologique
Neurologie
Éthologie, psychologie sociale

Culture

Informatique

Mémoire
Réseau, mobilité, partage, échange
Calcul

Pour aller plus loin

Commémorations centenaire

“All models are wrong but some are usefull” George E. P. Box (Robustness in the strategy of scientific model building, 1979)

[à suivre]

, , ,

1 commentaire