Dans la caverne enchaînés et fichés ! Oui, mais avec Platon

Les traces des concepts d’information et de communication se perdent dans les méandres du temps. Ainsi chez les grecs, Hermès est le messager des dieux, donneur de la chance, inventeur des poids et des mesures, gardien des routes et des carrefours, des troupeaux, des voyageurs et du commerce. Il guide les héros et les voleurs et conduit les âmes au royaume des morts. Demi-sœur d’Hermès, Athéna est vénérée pour sa sagesse. Elle conseille les héros, aide à l’élaboration des stratégies militaires, assiste les artisans, les artistes et les maîtres d’école. Elle personnifie la pensée. Fille d’Ouranos (le Ciel) et de Gaïa (la Terre), Mnémosyne enfin invente les mots et le langage. Aimée de Zeus, la déesse de la mémoire conçoit les neuf Muses parmi lesquelles Clio, muse de l’histoire.

Tels des super héros Marvel, les dieux antiques ont des pouvoirs spéciaux qui les différencie des simples mortels et qui leurs sont donnés par leurs attributs. Hermès porte des sandales et un chapeau muni d’ailes, symboles de sa vélocité. Il possède un caducée, baguette de laurier ou d’olivier surmontée d’ailes et ornée de serpents dont il guérit les morsures. Athéna est une déesse guerrière pourvue de l’égide, cuirasse en peau de chèvre aux pouvoirs surnaturels, de la lance et du bouclier sur lequel est fixé la tête de Gorgone. C’est encore la déesse de la sagesse dont les attributs sont l’olivier et la chouette chevêche. L’animal est un symbole d’intelligence : il voit clair dans l’obscurité. Les attributs de Clio sont la trompette, la clepsydre (horloge hydraulique) et le rouleau sur lequel sont inscrits les hauts faits des Dieux que la muse leur rappelle pour les distraire. Le hasard enfin n’existe pas. Ce sont les dieux qui choisissent.

Mais attardons nous plutôt sur Platon et sur sa fameuse caverne, allégorie extraite de son livre “La République” (315 av. J.-C.). Il y est question de liberté et de vérité, deux notions toujours d’actualité en 2016. Dans cette allégorie, un groupe d’hommes se retrouve enchaîné, immobilisé dans une caverne. Cependant, une ouverture se trouve en hauteur, au-dessus de leur sinistre antre. Ces étranges prisonniers n’ont jamais vu la lumière directe du soleil. Ils aperçoivent sur le mur qui leur fait face les ombres des passants qui déambulent à l’extérieur. De leur propre existence, ils ne connaissent que des ombres projetées sur le mur (facebook ?) par un feu allumé derrière eux. Ils ne perçoivent des sons extérieurs que des échos. Ils prennent ces ombres et ces bruits déformés pour la réalité. « Pourtant, ils nous ressemblent », précise Platon. Sortir de la caverne, obtenir de nouvelles informations conformes à la réalité nécessite qu’un des prisonniers soit libéré, éventuellement contre son gré. Une fois habitué à la lumière extérieure, prenant conscience de sa condition précédente, l’échappé solitaire est contraint de retourner auprès du groupe. Il tente d’expliquer ce qu’il a vu, mais il est critiqué et ses explications sont violemment rejetées.

387px-raffael_067

Platon par Raphaël (1512)

Cette théâtrale et sombre allégorie est sans doute appréciée des enseignants qui exercent leur profession auprès d’élèves et d’étudiants parfois distraits ! Sans doute nous imaginons nous tous parfois dans le rôle du prisonnier évadé essayant non sans difficulté de transmettre une information. Elle inspire toujours les réalisateurs, comme le montre le populaire film de science fiction « The matrix » : « Remember, all I’m offering is the truth, nothing more ». Tels Socrate, acteurs d’une antique tragédie dont le destin est dicté par les dieux, enchaînés à nos gènes, à notre environnement, à notre histoire personnelle, fichés et catégorisés de manière informatique, nous le sommes tous certainement. Oui mais avec Platon ainsi que de nombreux autres, sur les épaules desquels il est possible de se hisser pour tenter de voir plus loin… 

378px-library_of_congress_rosenwald_4_bl-_5r

Manuscrit allemand, vers 1410

Étymologie du mot information

En français, l’information est « ce qui donne forme à l’esprit », ou de manière logiquement complémentaire « ce qui réduit l’incertitude », notamment l’incertitude inhérente au futur. Le mot provient du verbe latin « informare », qui signifie « donner forme à » ou « se former une idée de ». Le préfixe « in » dérivé de « intra » désigne l’intérieur. Le mot latin « informatio » est traduit en français par « concept » ou « idée ». En grec, la notion de forme s’exprime de deux manières quasiment synonymes : μορφή (morphe) qui désigne la forme des choses que nous observons, et εἶδος (eidos) « sorte, idée, forme, pensée, proposition » qui signifie l’idée habituelle que nous nous faisons d’une chose. Le mot πληροφορία (plērophoria) « mener à bien entièrement », « transporter complètement » est une traduction littérale du mot information. Ainsi, les étymologies latines et les traductions grecques rendent assez bien compte du sens premier me semble-t-il : l’information est une représentation codée du réel qui peut être aisément transmise à d’autres personnes. Alors que l’information génétique « donne forme » au corps du niveau microscopique au macroscopique, l’information sociale régule le fonctionnement des individus, des groupes, des populations et des espèces – bref donne forme à l’esprit.

[A suivre…]

Quelques liens : Hermès, Allégorie de la caverne, Red pill and blue pill (en), Platon, SocrateL’école d’Athènes, Des nains sur des épaules de géants

Informatisation des données personnelles, fichiers électroniques nationaux :

Publicités

Poster un commentaire

Information et commerce au 18ème et 19ème siècle : deux allégories.

L’information constitue un instrument pour toutes sortes d’activités et parmi elles le commerce, comme le montrent deux images du web récemment numérisées. Datées du 18ème et 19ème siècle, ces remarquables allégories évoquent de plaisante façon les thèmes des échanges commerciaux sur mer et sur route; une invitation au voyage et peut être au départ en vacances.

La France offrant la Liberté à l’Amérique

france-amerique-1784-f

Peinture sur toile, 1784, Jean Suau (1755-1841), visible au Musée Franco Américain, proche de Soisson. Photo RMN-Grand Palais (Château de Blérancourt) / Gérard Blot

  • Description

Au centre, se trouve l’allégorie de la France en manteau bleu, fleurs de lys et cuirasse. Elle tient par la main la Liberté et l’offre à l’Amérique représentée par un Indien portant une coiffe à plumes, qui la reçoit sur son embarcation. La Liberté porte dans sa main droite le sceptre symbole de souveraineté et dans sa main gauche le bonnet phrygien icône de la liberté. 

En arrière plan, les allégories de la Victoire représentée avec les ailes et tenant une couronne de laurier, de la Paix agenouillée coiffée d’une couronne de fleurs, de l’Abondance tenant un bouquet de fleurs et d’épis de blé, et du Commerce montrant une carte et une boussole.

Au-dessus d’eux, la Renommée annonce l’événement de sa trompette. Sur la gauche, des débardeurs entassent et déplacent des marchandises destinées aux navires de différentes nations. A l’extrême droite se trouve Hercule qui chasse de sa massue le Léopard anglais.

  • Commentaires

Le tableau témoigne de l’intérêt que connut en France la Révolution américaine (1775-1783). Il met en scène de manière imagée l’aide militaire et financière française apportée aux insurgés américains. Il résume les intérêts français de l’époque et les mobiles qui se cachent derrière l’intervention : revanche contre l’Angleterre suite à la guerre de Sept Ans, aspirations à la reconquête du commerce maritime, expansion des empires coloniaux, gloire de la France dans ses alliances. On remarque l’identité de la république américaine représentée par un indien. La carte et la boussole sont associées au commerce. Jean Suau remporte avec cette oeuvre en 1784 le concours de l’Académie royale de Toulouse.

https://www.histoire-image.org/etudes/france-offrant-liberte-amerique

Commerce and Navigation, – Lake, Internal, and Coasting Trade

Commerce-Navigation-1024x865

Lithographie introductive du rapport “A Synopsis of the Commercial and Revenue System of the United States”, 1847, E. Weber & Co. Balto. Inscriptions en pied de page : « J. G. Bruff, Del.” , “Lith. of E. Weber & Co. Balto. », “Commerce and Navigation, – Lake, Internal, and Coasting Trade.”, “Entered according to aist of congress in the year 1847 by Rob.t Mayo in the clerk office of the Dis.t Court of the District of Columbia.”

Le titre complet du rapport s’avère relativement long, suivant les usages de l’époque : “A synopsis of the commercial and revenue system of the United States, as developed by instructions and decisions of the Treasury Department for the administration of the revenue laws: accompanied with a supplement of historical and tabular illustrations of the origin, organization, and practical operations of the Treasury Department and its various bureaus, in fulfilment of that system: in eight chapters, with an appendix.”, 1847, 8 chapitres, 436 pages. Le traité détaille les lois, les instructions et les décisions d’exécution relatives aux produits importés aux Etats-Unis. Deux lithographies allégoriques introduisent ce livre parmi lesquelles en français : “Le Commerce et la Navigation, – Commerce lacustre, interne et côtier“.

  • Description de la gravure

En arrière plan, des vaisseaux de commerce de différents types naviguent sur des étendues d’eau. Sur la côte, plusieurs constructions : un phare, et une tour supportant un sémaphore. Le quai d’un port est parcouru de marchands en haut de forme et de dockers. A gauche, des entrepôts parmi lesquels circule un train à vapeur transportant des passagers et des marchandises.

Au centre, au milieu de diverses marchandises sur l’embarcadère, un personnage féminin symbolise la liberté, un pied en appui sur un globe. Elle côtoie  un aigle supportant un écu décoré d’un fanion américain avec 13 étoiles. Un grand bouclier est en appui sur une ancre de marine. Au dessus d’elle vole Mercure ou Hermes, dieu patron antique des voyageurs et du commerce, des gains financiers, des messages et de la communication, caractérisé par ses pied et son casque ailé, caducée à la main.

 Au premier plan en bas, se trouvent des rouleaux sur lesquels on peut lire : “Système d’entrepôt américain”, “Produits domestiques”, “Produits étrangers”, “Commerce interne et côtier”, “Imports et exports”,  “Tarif des États-Unis”, “Carte du monde”, “Recettes de la marine, Système de phare”. Un “Livre de comptabilité” complète la collection. Des instruments de marine parmi lesquels on reconnaît une sonde à main, une poulie, un sextant, un compas droit, une balance.

  • Commentaires

Le dessin met en scène le commerce, le transport et la navigation côtière aux États-Unis et les liens étroits que ceux-ci entretiennent avec les technologies. On remarque parmi les modes de transport un train à vapeur avec passagers et marchandises, un bateau à vapeur propulsé par roue à aube, deux innovations majeures de l’époque. Le réseau ferré américain est déjà étendu comme le montre une carte de 1840 numérisée à la Bibliothèque du Congrès : http://hdl.loc.gov/loc.gmd/g3701p.rr003340. Parmi les innovations permettant la communication, le sémaphore placé à l’entrée du port annonce l’arrivée de nouveaux bateaux.

https://fr.wikipedia.org/wiki/S%C3%A9maphore_(signalisation_maritime)

Poster un commentaire

La Théorie de l’Information de Claude Shannon

“Je sais que j’ai été compris lorsqu’on m’a répondu” Claude Shannon

Publié en 1948, l’article “A Mathematical Theory of Communication” de Claude Shannon propose de modéliser certains des concepts clés de l’information et de la communication. Nous sommes à l’issue de la seconde guerre mondiale. Le radar a prouvé son utilité. Enigma, la machine électromécanique dédiée au chiffrement et déchiffrement des informations militaires est résolue. Alors que des médias et moyens de communication tels que la radio, la télévision, le téléphone rencontrent un vif succès, les travaux de Shannon et de quelques autres mathématiciens vont conduire à la mise au point des premiers ordinateurs. Mais la théorie de Shannon s’avère remarquablement générale et multiforme. Elle va notablement influencer des disciplines qui restent à être inventées telles que la robotique, l’intelligence artificielle ou bien la biologie moléculaire et contribuer significativement à l’amélioration des méthodes d’échange de l’information. Ce billet propose en commémoration du centenaire de la naissance du théoricien une courte biographie, une traduction de l’introduction de l’article ainsi que quelques idées générales sur l’information.

Claude Shannon (1916-2001)

shannon

Après un double “Bachelor of Science” en mathématiques et en génie électrique, Shannon est embauché à temps partiel en 1936 en tant que chercheur assistant au département de génie électrique du MIT (Massachusetts Institute of Technology) sous la direction de Vanevar Bush. Shannon manipule “l’analyseur différentiel” qui était le calculateur analogique le plus avancé de l’époque, capable de résoudre des équations différentielles du sixième degré. Son mémoire de master soutenu en 1938 “A Symbolic Analysis of Relay and Switching Circuits” montre que des arrangements de relais permettent de résoudre des problèmes d’algèbre booléenne, autrement dit que des machines électriques peuvent faire des opérations logiques, ouvrant la voie à la création de calculateurs d’une nouvelle génération. Shannon obtient simultanément en 1940 un master de science en Génie électrique et un doctorat (PhD) en Mathématiques sur un sujet de Génétique des populations “An Algebra for Theoretical Genetics”. Un modèle de notation susceptible de trouver des applications en génétique et dynamique des populations est proposé, tenant compte des phénomènes (reproduction, mutation) qui se produisent lors du cycle de vie.

En 1940, Shannon devient membre de l’“Institute for Advanced Study” à Princeton et croise occasionnellement en ces lieux des scientifiques de renom tels que Weyl, Von Neumann, Einstein et le logicien Gödel. Au début de la guerre, il travaille aux laboratoires Bell réputés au niveau mondial pour leurs recherches dans le domaine des télécommunications. C’est pour lui l’occasion en 1943 de prendre le thé avec le mathématicien et cryptographe Turing détaché pour quelques mois de Bletchley Park. Turing théorise depuis 1936 une machine à calculer universelle et met au point des machines électromécaniques dédiées à la cryptanalyse. Dès 1945, une publication longtemps classée de Shannon “A Mathematical Theory of Cryptography” est remarquée des spécialistes. En 1948, les laboratoires Bell nomment “transistor” leur dernière invention destinée à remplacer les relais dans les circuits logiques. La même année, Norbert Wiener, professeur de mathématique au MIT publie “Cybernetics: Or Control and Communication in the Animal and the Machine”, en collaboration avec Shannon pour le très mathématique chapitre 6. En juillet de la même année, Shannon publie la première partie de l’article : “A Mathematical Theory of Communication” dans la revue Bell System Technical Journal. La deuxième partie parait en octobre.

Une théorie de la transmission de l’information est proposée. Inspirée de la théorie de la cryptographie, elle vise à optimiser les systèmes de transmission ainsi que le fonctionnement des calculateurs. Il s’agit d’améliorer l’efficacité des communications, d’optimiser la quantité d’information transmise dans des canaux dont la capacité est limitée et qui génèrent du bruit. Parmi ses aspects novateurs, l’article définit dès l’introduction le bit (binary digit ou chiffre binaire, bit signifie encore « peu » ou bien « morceau » en anglais). Le bit est l’unité élémentaire et atomique de l’information. Sa définition relève de la logique. Shannon propose ensuite un modèle qui rend compte de la transmission de l’information quelque soit son type : information discrète (numérique), continue (analogique) ou bien mixte (numérique et analogique). Le cas de l’information discrète avec et sans bruit est développé dans la première partie, aboutissant à la démonstration de multiples théorèmes illustrés d’exemples.

Le calcul de l’entropie de l’information est ensuite proposé. Cet indicateur permet de caractériser de manière statistique la quantité maximale d’information qu’un canal peut transmettre. La formulation retenue – une fonction pondérée du logarithme en base 2 de la probabilité de réception d’un signal – répond à la même équation que l’entropie de Boltzman, une grandeur établie dans le contexte de la thermodynamique. Une même formule mathématique permet de décrire la dissipation de l’énergie dans un système et la transmission de l’information dans un canal. De manière simplifiée et quelque peu intuitive, l’entropie caractérise plusieurs choses : le niveau de “désordre” d’un système, le niveau de variation potentielle des signaux constitutifs d’un message, l’hétérogénéité d’un signal, les choix possibles constitutifs d’un message. Elle mesure encore l’incertitude moyenne de réception d’un signal. Plus l’entropie d’un signal discret est élevée, plus la quantité d’information susceptible d’être transmise de manière concise est importante. L’entropie de l’information est formulée en bits.

Le caractère multidisciplinaire de l’information et de la communication inspire alors de nombreux scientifiques de différentes spécialités. Shannon devient reconnu comme le fondateur de la “Théorie de l’Information”. Il assiste en 1950, 1951 et 1953 aux conférences de la fondation Macy dans lesquelles sont discutées la cybernétique, une théorie multidisciplinaire de l’information et de l’action. Ces événements réunissent des scientifiques américains autour de personnalités comme Wiener et Von Neumann. On y discute de modèles et de processus de décision qui concernent aussi bien les machines à calculer, que la neurophysiologie ou la psychologie. Wiener développe les concepts de “boîte noire”, d’action et de “feedback » ou rétroaction. Ce mouvement de pensée dont l’intérêt relève de l’histoire des sciences influencera notablement les scientifiques de cette époque, accompagnant une réflexion multidisciplinaire.

shannon-bit

Un doigt levé ou baissé, un interrupteur ouvert ou fermé, une pièce positionnée coté pile ou face, constituent des exemples simples d’unité atomique de l’information et nommé bit ou binary-digit (signal binaire) par Shannon et JW Tukey.

A Mathematical Theory of Communication” est publié dans “The Bell System Technical Journal” en juillet et octobre 1948. Le même article préfacé par Weaver est édité sous forme de livre en 1949 et intitulé “The Mathematical Theory of Communication”. Une traduction de l’introduction de l’article de juillet 1948 est ici proposée suivi du plan de l’article traduit également. Une discussion conclue ce billet.


A Mathematical Theory of Communication” : Traduction de l’introduction

Le récent développement de diverses méthodes de modulation telles que la PCM (modulation d’impulsion codée) et la PPM (modulation en position d’impulsions) qui échangent de la bande passante contre du rapport signal-bruit a intensifié l’intérêt d’une théorie générale de la communication. Une base d’une telle théorie se trouve dans les articles importants de Nyquist et Hartley à ce sujet. Dans le présent article, nous étendrons la théorie pour inclure un certain nombre de nouveaux facteurs, en particulier l’effet du bruit dans le canal, et les économies possibles dues à la structure statistique du message original et dues à la nature de la destination finale de l’information.

Le problème fondamental de la communication est celui de reproduire en un point, soit exactement soit approximativement un message sélectionné à un autre point. Fréquemment, les messages ont une signification; c’est à dire qu’ils se réfèrent à ou sont corrélées avec certains systèmes, avec certaines entités physiques ou conceptuelles. Ces aspects sémantiques de la communication ne relèvent pas du problème de l’ingénierie. L’aspect important est que le message réel est un élément choisi parmi un ensemble de messages possibles. Le système doit être conçu pour fonctionner pour chaque sélection possible, pas seulement celle qui sera effectivement choisie car celle ci est inconnue au moment de l’envoi.

Si le nombre de message dans l’ensemble est fini alors ce nombre ou toute fonction monotone de ce nombre peut être considéré comme une mesure de l’information produite quand un message est choisi parmi un ensemble, tous les choix étant équiprobables. Comme l’a souligné Hartley le choix le plus naturel est la fonction logarithmique. Bien que cette définition doive-t-être généralisée considérablement lorsque l’on considère l’influence des statistiques du message et lorsque nous avons une gamme continue de messages, nous allons utiliser dans tous les cas une mesure essentiellement logarithmique.

La mesure logarithmique est plus commode pour diverses raisons:

  1. Elle est plus utile de manière pratique. Des paramètres d’importance en ingénierie tels que le temps, la bande passante, le nombre de relais, etc., ont tendance à varier linéairement avec le logarithme du nombre de possibilités. Par exemple, l’ajout d’un relais à un groupe double le nombre d’états possibles des relais. On ajoute 1 au logarithme en base 2 de ce chiffre. Un doublement du temps multiplie au carré le nombre des messages possibles, ou double le logarithme, etc.
  2. Elle est plus proche de notre sens intuitif que de la mesure elle-même. C’est étroitement liée à (1) puisque nous mesurons intuitivement les entités en comparaison linéaire avec les standards communs. On ressent, par exemple, que deux cartes perforées doivent avoir deux fois la capacité d’une seule pour le stockage de l’information, et deux canaux identiques deux fois la capacité d’un seul pour transmettre l’information.
  3. Elle est mathématiquement plus appropriée. Un grand nombre d’opérations critiques sont simples en termes de logarithme mais exigeraient autrement un retraitement maladroit en terme de nombre de possibilités.

Le choix d’une base logarithmique correspond au choix d’une unité de mesure de l’information. Si la base 2 est employée, les unités qui en résultent peuvent être appelées digits binaires, ou plus brièvement bits [binary digits], un mot suggéré par JW Tukey. Un dispositif à deux positions stables, comme un relais ou un circuit à bascule, peut stocker un bit d’information. Un nombre N de tels dispositifs peut stocker N bits, puisque le nombre total d’états possibles est 2N et log22N = N. Si la base 10 est utilisée, les unités peuvent être appelées chiffres décimaux. Puisque

log2 M = log10 M / log10 2 = 3.32 log10 M,

un chiffre décimal correspond approximativement à 3 ⅓ bits. Une roue à chiffres sur une machine à calculer de bureau a dix positions stables a donc une capacité de stockage d’un chiffre décimal. Dans les travaux analytiques dans lesquels l’intégration et le calcul différentiel sont impliqués, la base e est parfois utile. Les unités d’information résultantes seront appelées unités naturelles. Un changement de la base a en base b exige simplement une multiplication par logb a.

Par un système de communication, nous entendrons un système du type de celui indiqué schématiquement dans la Fig. 1. Il est constitué essentiellement de 5 parties:

  1. Une source d’information qui produit un message ou une suite de messages destinés à être communiqués au terminal récepteur. Le message peut être de différents types: par exemple (a) Une séquence de lettres comme dans un système de type télégraphe ou télétype; (b) Une simple fonction du temps f(t) comme dans la radio ou la téléphonie; (c) Une fonction du temps et d’autres variables comme avec la télévision noir et blanc – ici le message peut être pensé comme une fonction f(x;y;t) de deux coordonnées spatiales et du temps, l’intensité lumineuse au point (x;y) et au temps t sur la plaque du tube de récupération; (d) Deux ou plusieurs fonctions du temps, disons f(t), g(t), h(t) – c’est le cas dans le système de transmission du son en trois dimensions ou si le système est destiné à desservir plusieurs canaux individuels en multiplex. (e) plusieurs fonctions de plusieurs variables – avec la télévision couleur, le message consiste en trois fonctions f(x,y,t), g(x,y,t), h(x,y,t) définies dans un continuum tridimensionnel – nous pouvons aussi penser à ces trois fonctions comme des composantes d’un champs vecteur défini dans la région – de même, plusieurs sources de télévision en noir et blanc produiraient des « messages » constitués d’un certain nombre de fonctions de trois variables; (f) Diverses combinaisons se produisent également, par exemple pour la télévision avec une voie audio associée.
  2. Un émetteur qui intervient sur le message de manière quelconque pour produire un signal approprié à la transmission sur le canal. Dans la téléphonie cette opération consiste simplement à changer la pression sonore en un courant électrique proportionnel. Dans la télégraphie nous avons une opération d’encodage qui produit une séquence de points, de tirets et d’espaces sur le canal correspondant au message. Dans un système de multiplex PCM les différentes fonctions de la parole doivent être échantillonnées, comprimées, quantifiées et encodées, et finalement entrelacées convenablement pour construire le signal. Systèmes Vocoder, télévision et modulation de fréquence sont d’autres exemples d’opérations complexes appliquées au message pour obtenir le signal.
  3. Le canal est simplement le moyen utilisé pour transmettre le signal de l’émetteur au récepteur. Cela peut être une paire de fils, un câble coaxial, une bande de fréquences radio, un faisceau de lumière, etc.
  4. Le récepteur effectue habituellement l’opération inverse de celle effectuée par l’émetteur, reconstruisant le message à partir du signal.
  5. La destination est la personne (ou une chose) à laquelle le message est destiné.

shannon-modelNous souhaitons considérer certains problèmes généraux impliquant des systèmes de communication. Pour ce faire, il est d’abord nécessaire de représenter les différents éléments impliqués comme des entités mathématiques, convenablement idéalisées à partir de leurs équivalents physiques. Nous pouvons grossièrement classer les systèmes de communication en trois catégories principales : discret, continu et mixte. Par un système discret, nous entendons celui dans lequel le message et le signal à la fois sont une séquence de symboles discrets. Un cas typique est la télégraphie dans lequel le message est une séquence de lettres et le signal une séquence de points, de tirets et d’espaces. Un système continu est celui dans lequel le message et le signal sont tous deux traités comme des fonctions continues, par exemple, avec la radio ou la télévision. Un système mixte est celui dans lequel des variables discrètes et continues apparaissent, par exemple, la transmission de la parole en PCM.

Nous considérons d’abord le cas discret. Ce cas présente des applications non seulement dans la théorie de la communication, mais aussi dans la théorie des calculateurs, dans la conception des échanges téléphoniques et dans d’autres domaines. De plus, le cas discret constitue une base pour les cas continus et mixtes qui seront traités dans la seconde moitié du papier.

[…]


A Mathematical Theory of Communication” : le plan

Introduction, p379, fig. 1

Partie I : Systèmes discrets sans bruit
  1. Le canal discret sans bruit, p382, théorème 1, fig. 2
  2. La source discrète d’information, p384
  3. Des séries d’approximations de l’anglais, p388
  4. Représentation graphique d’un processus de Markoff, p389
  5. Sources ergodiques et mixtes, p390, fig. 3, 4, 5
  6. Choix, incertitude et entropie, p392, fig. 6, théorème 2, fig. 7
  7. L’entropie d’une source d’information, p396, théorème 3, théorème 4, théorème 5, théorème 6
  8. Représentation des opérations d’encodage et de décodage, p399, théorème 7, théorème 8
  9. Le théorème fondamental pour un canal sans bruit, p401, théorème 9
  10. Discussion, p403
  11. Exemples, p404
Partie II : Le canal discret avec bruit
  1. Représentation d’un canal discret avec bruit, p406
  2. Équivoque et capacité d’un canal, p407, théorème 10, fig. 8
  3. Le théorème fondamental pour un canal discret avec bruit, p410, théorème 11, fig. 9, fig. 10
  4. Discussion, p413
  5. Exemple d’un canal discret et de sa capacité, p415, fig. 11
  6. La capacité du canal dans certains cas spéciaux, p416, fig. 12
  7. Un exemple d’encodage efficace, p418
Appendice 1 : La croissance du nombre de blocs de symboles en condition d’état fini, p418
Appendice 2 : Dérivation de H, p419
Appendice 3 : Théorèmes sur les sources ergodiques, p420
Appendice 4 : Maximisation de la fréquence dans un système avec contraintes, p421

(à suivre)

Partie III : Préliminaires mathématiques, p623

18. Groupes et ensembles de fonctions, p623
19. Ensembles de fonctions limitées par la bande, p627
20. Entropie d’une distribution continue, p628
21. Perte d’entropie dans les filtres linéaires, p633, tableau 1
22. Entropie de la somme de deux ensembles, p635

Partie IV : Le canal continu, p637

23. La capacité d’un canal continu, p637
24. La capacité d’un canal avec une limitation de puissance moyenne, p639
25. La capacité du canal avec un pic de limitation de puissance, p642

Partie V : La fréquence pour une source continue, p646

26. Fidélité des fonctions d’évaluation, p646
27. La fréquence de la source en fonction d’une évaluation de la fidélité, p649
28. Le calcul des fréquences, p650

Remerciements, p652
Appendice 5, p652
Appendice 6, p653
Appendice 7, p655

A Mathematical Theory of Communication” : Figure 7

shannon-entropy

Dans le cas d’un signal binaire sans bruit, l’entropie présente plusieurs propriétés intéressantes qui justifient son calcul d’après Shannon. L’entropie représente la richesse en information d’un message. Soit un message constitué d’une suite de 0 et de 1, c’est lorsque la fréquence des 0 est statistiquement égale à celle des 1 que l’entropie et la quantité d’information susceptible d’être transmise sont maximales. Si un message ne contient que des 0 ou que des 1, son entropie est nulle et il ne transmet aucune information. Par analogie, la colonne d’une table de données qui contiendrait toujours la même information n’apporterait aucune information et serait inutile. Le calcul de l’entropie peut être étendu à des systèmes comportant un plus grand nombre de valeurs discrètes comme dans le cas du morse, de l’alphabet, de l’ADN ou de l’ARN par exemple.

A Mathematical Theory of Communication” : Figure 8

shannon-correction

En présence de bruit, Shannon envisage la présence d’un observateur susceptible de corriger les données transmises de manière incorrecte. De manière pratique, sur les réseaux téléphoniques, la voie reste compréhensible en présence de bruit. Sur Internet par exemple, il est possible de s’assures de l’intégrité des données transmises en calculant la somme de contrôle du fichier réceptionné et en la comparant avec celle d’origine, effectuant ainsi une sorte d’auto-rétroaction.

Discussion, commentaires et élucubrations

L’approche de Shannon pour modéliser l’information intrigue au premier abord. Il ne s’intéresse pas au sens de l’information mais il en modélise uniquement les aspects physiques, logiques, mathématiques et statistiques. Le dispositif technique proposé est simple. L’émetteur émet un signal qu’il encode. Un canal de capacité limitée transmet le signal de manière bruitée. Le récepteur reçoit le signal et décode. Shannon s’intéresse ensuite aux aspects statistiques de l’écriture en alphabet latin. La théorie de la communication (titre de l’article) est en fait une théorie de la transmission de l’information en général, appliquée à la télécommunication dans ses aspects Physique statistique.

Mais qu’est ce que l’information au sens commun? Une analogie est souvent faite entre l’information et la matière fluide, voire gazeuse. On parle ainsi de source d’information, de canal, de flux, de lacs de données et de torrents de bits. L’amélioration du débit internet rend possible l’apparition de l’informatique en nuage. Ces plaisantes métaphores font référence à la nature dynamique de l’information. Mais en fait l’information ne relève pas de la mécanique des fluides, elle est matérielle car elle nécessite un support pour exister. Cependant, plusieurs supports peuvent contenir la même information; des canaux de différentes natures peuvent la transmettre. Shannon cite en exemple de support la carte perforée et en exemple de canal une paire de fils, un câble coaxial, une bande de fréquences radio, un faisceau de lumière.

De manière générale, on distingue l’information orale dont le canal est l’air atmosphérique et mémorisée dans le système nerveux central, l’information écrite qui nécessite un support comme le papier ou un écran, l’information faite d’images animée ou non (photo, vidéo, etc). Chez l’homme, l’efficacité de la transmission dépend étroitement d’un environnement particulier. La perception est liée aux aspects sensoriels du « récepteur » : sensibilité aux ondes sonores, visuelles ou électromagnétiques, sensibilité aux molécules chimiques ou biochimiques. Le caractère conscient ou inconscient, les paramètres psychosociaux de l’information modifient la perception. De ces éléments dépend le fait que les infos soient éventuellement mémorisées et transformées en connaissances, soient réutilisables. Des questions politiques, morales, éthiques, déontologiques et légales apparaissent fréquemment liées à l’émission et au traitement de l’information.

En latin, « informatio » signifie « ce qui donne forme à l’esprit », « ce qui instruit », « ce qui enseigne », « ce qui discipline ».  Le mot « information » est employé dans plusieurs contextes variant de la culture aux technologies et à la génétique. L’information se trouve souvent associée à des termes polysémiques tels que « réplication », « transcription », « traduction », « mutation », « polymorphisme », « cycle de vie », « patrimoine », « identité » et « évolution » qui en précisent la nature. Ainsi, patrimoine peut désigner à la fois « patrimoine culturel », « patrimoine numérique » ou « patrimoine génétique ». L’identité peut être culturelle, numérique ou génétique. De la même manière, l’évolution peut être culturelle, technologique ou biologique.

Lorsque Shannon publie sa théorie dans le contexte du traitement du signal par les machines, il prend en quelque sorte le contre-pied du raisonnement habituel. L’information ne donne pas un ordre à une machine mais elle résout une incertitude. Il se place du côté du récepteur en attente d’une commande. Le bit (0 ou 1, oui ou non) est défini comme unité logique et entière. Toute information analogique peut être mathématiquement et physiquement réduite à ce cas. Il devient alors possible de la quantifier, comme l’énergie, la masse, le temps ou une distance. Le bit permet de quantifier les mémoires, les vitesses de transmission (capacité d’un canal), ou bien de caractériser et d’optimiser l’encodage d’un message.

Shannon propose ensuite le « diagramme schématique d’un système général de communication », figure 1, qui s’avère assez général, utilisé dans une multitude de domaines. Le physicien limite son raisonnement au cas de la transmission de l’information par les outils électriques de son époque : télégraphe, téléphone, radio, télévision. Il s’agit de transmettre un signal porteur d’informations en présence de bruit. La langue, le message, les mots et les lettres peuvent être analysés statistiquement et encodés.

“Information is the resolution of uncertainty” Claude Shannon

L’entropie

Des analyses de fréquence des signaux permettent de calculer l’entropie. Cet indicateur statistique fournit des renseignements sur la variabilité des composantes constitutives d’un message. Le calcul de l’entropie présente quelque intérêt pratique dans divers domaines. Ainsi, les algorithmes génétiques permettent de trouver des solutions optimales dans un environnement contraint. Il s’agit d’augmenter l’entropie en introduisant des « mutations » et d’analyser l’adaptation aux contraintes des « mutants ». Au contraire, dans des algorithmes de classification automatique, il convient de minimiser de manière informatique l’entropie intra-classe pour faire émerger des classes homogènes. Les écologues utilisent l’entropie pour mesurer la diversité des espèces dans un écosystème. Les sociologues utilisent l’indice de Theil fondé sur l’entropie pour mesurer la diversité des revenus dans une population par exemple. La relation entre l’entropie de Shannon, et l’entropie de Boltzman est étudiée par différentes personnalités scientifiques parmi lesquels Léon Brilloin qui démontre dans son livre “Naissance de la théorie de l’information” (1953) l’équivalence entre l’entropie de Botzman et celle de Shannon.

ADN et biologie

Précédant Shannon de quelques années, Shrödinger propose en 1944 son livre “What is life” dans lequel la notion d’entropie négative ou néguentropie caractéristique de la vie est introduite. Dans ce même ouvrage, une sorte de portrait robot des fonctions que doit remplir l’ADN en matière de codage de l’information est dressée. Qu’en est il des 4 célèbres bases nucléiques transportant une information de caractère discret ? Caractérisé en 1953 par Watson et Crick auxquels il est sans doute possible d’associer Rosalind Franklin et Wilkins, l’ADN constitue le support de l’information génétique.

La fameuse molécule se réplique et apparaît transcrite en 2 bits dans le noyau cellulaire. Lors de la réplication (l’ADN produit de l’ADN) ou de la transcription (l’ADN produit de l’ARN messager), quatre choix sont possible pour la DNA polymerase ou pour la RNA polymerase dans le but de synthétiser respectivement une nouvelle molécule d’ADN (A, G, C, T) ou bien une nouvelle molécule d’ARN (AGCU).

La traduction (l’ARN produit des protéines) se produit dans le cytoplasme. Cette opération se fait en 6 bits. Une association logique est faite entre 3 bases d’ARN messager et un acide aminé. Ainsi, avec 3 bases, 64 codons sont possibles. 64 codons correspondant à 3 x 2² = 2 puissance 6 choix d’information possibles pour le ribosome. L’ARN codent pour 22 acides aminés, un codon start et un codon stop soit 24 choix possible. Quels que soient les êtres vivants, plusieurs codons codent pour le même acide aminé et le code génétique est dit « dégénéré ». Chez les bactéries, réplication, transcription et traduction se produisent dans le même compartiment cellulaire.

Une hormone peut encore être considérée comme un message analogique ciblant des récepteurs cibles. Le fonctionnement des neurones peut être modélisé de la même manière. Certains émettent un signal, d’autres transmettent, réceptionnent et agissent. Des phénomènes de seuil, de concentration ou d’intensité viennent cependant compliquer les phénomènes. Une interprétation large de la théorie peut apporter une meilleure compréhension de certains mécanismes observés chez le vivant. Comme nous venons de la voir, la Nature comme la Culture peuvent être analysées en terme de logique shannonienne. Historiquement cependant, Shannon réfute une interprétation large de son modèle.

2016

Du Shannon de 1948 à Internet et au développement du web, à l’information libre sur Wikipédia, et aux logiciels et licences libres en poursuivant par les réseaux sociaux, un long chemin a été parcouru. L’usage des nouvelles technologies est devenu de nos jours banal. Il suffit de partager une écriture et une langue, du matériel, un réseau et une prise électrique, et les informations sont échangées en grandes quantités. Le commerce électronique se développe, rendant possible l’émergence d’une véritable société de l’information. Le numérique est devenu en quelques années un changement culturel majeur autant qu’industriel ou technologique. De grosses entreprises dynamisent le secteur et une multitude d’acteurs secondaires apparaissent tous les jours.

Monnaies et crypto-monnaies

Quelques remarques complémentaires en relation peu étroite avec l’article de Shannon concernent la monnaie de nos jours électronique. Ce sont des flux d’information entre acheteurs, vendeurs et banques qui rendent possible les transactions. Des intermédiaires tels que des fournisseurs d’accès, des banques, des organismes tiers, peuvent être perçus comme des autorités susceptibles de générer la confiance et de faciliter les échanges. Jusqu’à présent seuls les états et les banques garantissaient cette fameuse confiance en une monnaie qui se doit d’être présente en quantité limitée pour conserver sa valeur.

L’introduction des crypto-monnaies comme le bitcoin marque une rupture technique, politique et économique. Dépendant du réseau Internet, le bitcoin assure en effet de manière mathématique, cryptographique et logique la confiance dans la validité des transactions et dans la limitation des quantités de monnaie en circulation. La « chaîne de blocs » rend cela possible. Elle consiste en une base de donnée chiffrée et décentralisée de l’ensemble des transactions effectuées. La chaîne de bloc est susceptible de présenter une variété d’applications pour lesquels la confiance revêt un aspect critique. On peut ainsi envisager des applications dans les secteurs des données cadastrales, des activités notariales, de la validation de titres de propriété, de l’assurance, de la traçabilité, du vote sécurisé. Élaboré dans un esprit libertaire pour faire émerger une valeur d’échange qui échappe au contrôle des banques et des états, le bitcoin et la chaîne de bloc sont cependant susceptibles de mener à une modernisation de de ceux-ci. Un algorithme peut aussi générer de la confiance à condition que son code soit ouvert.

L’information libre, oh yeah

Dans le cade d’élections, lorsqu’un référendum est organisé, un bit d’information est transmis d’un individu à une urne, symbole de la volonté commune. L’émergence du numérique nous fait bien comprendre que l’information est partout présente dans nos cultures. Une nouvelle discipline est même née au carrefour des sciences humaines et de l’informatique : les humanités numériques. Pour des scientifiques qui étudient la transition de longue date tels que des personnalités comme Michel Serres,  Pierre Levy, Bernard Stiegler, Dominique Wolton, Monique Dagnaud, Richard Dawkins, etc, ou bien pour les praticiens tels que Richard Stallman, Tim Berners Lee et bien d’autres encore une “pensée numérique” est née qui s’appuie sur Internet, dont la logique s’avère aussi imparable que 01 et 01 font 10.

Conclusion

La fécondité d’une « simple » théorie, les possibilités nouvelles qu’elle est susceptible d’apporter peut étonner. En sciences de l’ingénieur : reconnaissance des caractères, des visages et de la voix, économie collaborative, transactions à haute fréquence :-(, Bitcoin, BitLand, Fab-Labs :-), Git, Stack Overflow et autres listes de discussion :-), impression 3D font partie de l’usage courant, ou vont le devenir. Dans le secteur tout à fait différent des biotechnologies : tests génétiques :-), plantes transgéniques résistant aux herbicides 😦 thérapie génique :-), thérapie cellulaire :-), etc. D’autres applications restent à être inventés. De nouveaux équilibres doivent être trouvés entre le virtuel et le réel, entre la théorie et la pratique, entre le dogmatisme et l’empirisme, entre la culture et la nature, ou bien encore entre les intérêts communs et particuliers. Des concepts philosophiques et informatiques majeurs tels que “l’échange”, “la mémoire” ou bien “le calcul” nous rappellent sur les pas des cybernéticiens, que de nombreuses similitudes existent entre les hommes, les animaux, voire même les machines.

Dernière petite précision concernant le père de la théorie de l’information. Celui-ci prend plaisir à pratiquer le monocycle, à jongler, à construire des machines inutiles, amusantes, et sa maison est remplie de telles inventions. Parmi celles-ci, on peut mentionner le THROBAC, un calculateur qui fait des opérations arithmétiques en chiffres romains, des “tortues” qui s’égarent dans les pièces, des machines de différentes sortes et de toutes tailles, une machine à jongler avec trois balles, ainsi que l’”Ultimate Machine”, un étonnant engin dont l’idée originale revient à Marvin Minsky. Physicien, Mathématicien, Logicien, Philosophe, Généticien ou Jongleur ? Shannon est il le dernier des métaphysiciens ou bien le premier d’une nouvelle génération.

Texte original

bit-generation#0

Pour comprendre

Organismes

Pour le fun

Biologie

Culture

Informatique

Pour aller plus loin

Le centenaire

“All models are wrong but some are usefull” George E. P. Box

[à suivre]

, , ,

2 Commentaires

Affichage d’images en haute résolution avec OpenSeadragon

« Pour voir loin, il faut y regarder de près » Pierre Dac

OpenSeadragon est une bibliothèque javascript Open Source (Licence BSD) qui facilite la visualisation des détails d’une image haute résolution dans un navigateur en permettant de facilement zoomer et dézoomer sur une zone, avec la souris, avec les doigts (écran tactile), ou bien en cliquant sur un ensemble de boutons dédiés.On passe alors facilement d’une vue générale à l’exploration des détails, de manière simple, fluide, sans latence. Le temps de chargement d’une image lourde devient réduit et la bande passante est ainsi économisée.

De multiples options permettent de finement configurer OpenSeadragon et de l’adapter à différents besoins. Il est notablement possible de visualiser des diaporamas d’images zoomables, de créer des sur-couches mettant en évidence des zones particulières, de comparer sur le même écran deux images haute résolution différentes. Les bibliothèques, les musées et les archives sont les principaux utilisateurs de cette bibliothèque javascript qui sert souvent à afficher des cartes, des manuscrits anciens, des photographies, des œuvres d’art numérisées. Basée sur OpenSeadragon, la visionneuse Mirador (Stanford, Harvard) se distingue. Elle permet par exemple de visualiser simultanément deux images, de naviguer dans des ensembles d’images par l’intermédiaire de vignettes, pour consulter un livre ancien par exemple. Mirador est testé actuellement par Biblissima (Campus Condorcet) qui propose une démonstration intéressante pour les amateurs d’archives et de documents anciens.

La fabrication et l’affichage des images avec OpenSeadragon se fait en deux étapes :

  1. Création d’images zoomables : L’image haute résolution d’origine est transformée automatiquement en une série d’images de petites dimensions appelées « tuiles » (tile en anglais), de forme carrée et localisées dans une arborescence spéciale. Cette transformation peut être faite de manière programmée (C++, PHP, Python, PERL, .NET, Node.js) ou bien à l’aide de logiciels de bureautique libres tels que Deep Zoom Composer (Microsoft) ou bien MapTiler (Klokan Technologies). OpenSeadragon accepte les formats de tuiles DZI et TMS.
  2. Affichage de l’image dans le navigateur : la bibliothèque javascript permet l’affichage des images ainsi créées et ajoute les boutons qui permettent le zoom, le déplacement et le passage plein écran de l’image.

Quelques liens

Démos :

Quelques sites et pages :

Tutoriel

Voici un rapide tutoriel qui va vous permettre de tester OpenSeadragon et de réaliser vous-même des images zoomables. Vous disposez d’un serveur local et d’un PC sous windows (c’est un peu ringard mais ça marche et c’est ce que j’ai souvent sous la main !).

  1. Téléchargez la version zip d’OpenSeadragon ici.
  2. Dézippez le fichier.
  3. Copiez le répertoire « openseadragon-bin-2.0.0 » sur le répertoire du serveur local en le renommant « openseadragon ».
  4. Convertissez votre image haute résolution. Téléchargez Deep Zoom Composer.
  5. Installez Deep Zoom Composer et ouvrez un nouveau projet avec « New Project ».
  6. En haut à droite, ajoutez une image avec « Add Image ».

    dzc-import

    Appuyer sur Import

  7. Cliquez en haut sur « Compose » et glissez l’icone de votre image en bas à gauche dans le panneau du milieu. Peu importe où.

    Appuyez sur Compose

    Appuyez sur Compose

  8. Cliquez en haut sur « Export », entrez à droite le nom du répertoire d’export dans « Name » et le lieu dans « Location » (le répertoire du serveur). Sélectionnez « Export as a composition (single image) ».

    Appuyez sur Export

    Appuyez sur Export

  9. Cliquez sur « Export » en bas à droite.
  10. Cliquez sur « View Image Folder » pour bien repérer la localisation du fichier « dzc_output.xml » à paramétrer dans le code sous le nom « tileSources ».
  11. Le répertoire « dzc_output_files » contient l’image convertie.
  12. Adaptez et insérez le code dans votre page HTML, visualisez dans votre navigateur favori et voilà.

openseadragon

Une version de Virgile imprimée en 1561 et annotée (bibliothèque d'Harvard), visible avec OpenSeadragon

Une version de Virgile imprimée en 1561 et annotée (bibliothèque d’Harvard), visible avec OpenSeadragon/Mirador, Biblissima (Campus Condorcet)

Conclusion

OpenSeadragon est une bibliothèque javascript libre développée et maintenue par Ian Gilman et utilisée entre autres par des organismes du type université, bibliothèque nationale, laboratoire de recherche. Il est tout à fait possible d’envisager l’usage de cette fort intéressante bibliothèque javascript dans une multitude de domaines scientifiques, non seulement en humanités numériques, mais encore en archéologie, agronomie, études sur l’environnement, médecine et biologie (microscopie), physique, astronomie qui exploitent des images en haute résolution. Des services dans le cloud pourraient être créés, susceptibles de faciliter la gestion d’images de ce type, analogue au maintenant disparu Zoom.it de Microsoft. Des modules DZI/OpenSeadragon existent déjà, permettant d’augmenter les possibilités des grands gestionnaires de contenus libres que sont Drupal ou WordPress, des gestionnaires de documents tels que DSpace, Omeka, Pleade.

La technologie libre OpenSeadragon semble prometteuse dans l’objectif de rendre accessible et aisément manipulable des images en très haute résolution. Des technologies libres potentiellement équivalentes sont Leaflet (Open Street map), OpenLayers, PanoJS. D’autres systèmes libres s’avèrent plus difficiles à mettre en œuvre comme IIPImage, digilib. Certains systèmes propriétaires peuvent être cités tels que jQuery Image Viewer, zoomify, ajax-zoom, shockwave-flash (Adobe) ou gigapan (NASA, Google). Des bibliothèques javascript comme StoryMap JS permettent finalement de raconter des histoires avec une image au format gigapixel.

À noter également pour des images de taille standard la possibilité d’utiliser des bibliothèques javascript (jquery ou autre) dédiées au zoom, ou bien un code javascript utilisant les fonctionnalités d’HTML5. La génération de tuiles n’est alors pas nécessaire.

, , , ,

Poster un commentaire

Le rapport statistique 2014

stats-2014Les statisticiens de WordPress.com ont préparé le rapport annuel 2014 de ce blog. L’année 2014 est un bon cru avec 21341 visites de 13548 visiteurs différents, soit en moyenne 1,6 visites par personne. Merci de votre fidélité, et bonne année 2015, avec une série de billets dont le premier devrait sortir dans les tous prochains jours…

Cliquez ici pour voir le rapport complet.

Poster un commentaire

Archives numériques personnelles : les fondamentaux de la numérisation

Une image numérique est constituée de dizaines de milliers de carrés minuscules appelés pixels.

Une image numérique est constituée de dizaines de milliers de carrés minuscules appelés pixels

Mike Ashenfelder (Bibliothèque du Congrès) expose les techniques que les particuliers peuvent employer pour numériser leurs photographies et documents anciens. Il nous guide en 3 étapes dans la manipulation du scanner, dans le choix des résolutions, des formats, des types de compression, ainsi que dans le nommage et la sauvegarde de nos fichiers numériques. Quelques informations supplémentaires et liens vers Wikipédia complètent ces recommandations traduites en français dans ce billet. Bonne numérisation !

Personal Digital Archiving: The Basics of Scanning, 2014, Mike Ashenfelder, The Signal : Digital Preservation, Library of Congress : http://blogs.loc.gov/digitalpreservation/2014/03/personal-digital-archiving-the-basics-of-scanning/

[…]

Lorsque vous scannez une photographie papier, l’appareil crée une version numérique de la photo constituée de dizaines de milliers de carrés minuscules appelés pixels. Ce processus de conversion du papier vers le numérique constitue la numérisation. Cette opération s’applique aux images, textes, documents vidéos ou audios. Ce billet s’intéresse surtout au scan et à la numérisation des photographies sur support papier.

Etape 1 : Préparer le scanner et les photos

La première étape du processus consiste à nettoyer le scanner et les photos. Les taches, la poussière et les cheveux sont numérisés en même temps que vos photos ce qui peut nuire à la qualité des documents. Essuyez la vitre du scanner avec un chiffon clair, non pelucheux humidifié avec de l’eau. Ne pas pulvériser d’eau directement sur le scanner, vaporisez le chiffon. Essuyez aussi l’intérieur du couvercle du scanner.

Ensuite, utilisez un chiffon anti-statique sec pour essuyer avec précaution la photographie. Vous pouvez trouver ces chiffons dans un magasin d’appareils photos. En plus de nettoyer la photo, ils empêchent l’attraction des poussières et des cheveux. Placez la photo nettoyée sur le scanner. Ne pas toucher le verre quand vous posez la photo. Si vos doigts tachent le verre, vous aurez à recommencer le nettoyage! Faites glisser la photo jusqu’au bord de la vitre du scanner et vers le haut jusqu’à l’angle de la réglette pour un meilleur alignement.

detect-separate-itemsCertains logiciels détectent les photos ou documents séparés et les numérisent sous forme de fichiers individuels. Laissez environ un centimètre entre les photos pour aider le logiciel à reconnaître les différents objets. Fermez le couvercle avec précaution pour que les photos restent alignées sur le rebord de la vitre.

Etape 2 : Régler les propriétés du scanner – résolution et profondeur des couleurs

Maintenant que votre scanner et vos photos sont prêts, procédez à quelques réglages. Depuis votre ordinateur, ouvrez le logiciel du scanner. Trois réglages sont importants :

  • la résolution de l’image numérique exprimée en points par pouce (dpi)
  • le type d’image (couleur ou niveaux de gris).
  • le format de fichier des images produites (TIFF, PNG, JPEG sont proposés) et parfois le type de compression associé au format.

Le point par pouce ou “dpi – dot per inch” est une mesure de la densité de pixels. Les spécialistes de l’image utilisent le terme plus précis de «pixels par pouce» ou “ppi”. Toutefois, les scanners commerciaux utilisent presque exclusivement “dpi” et nous nous en tiendrons ici à ce terme.

scan_300-400dpi_220jpgPlus il y a de pixels par aire de surface, plus l’image peut contenir de détails. Une image en 200 points par pouce contient potentiellement plus de détails que la même image en 75 points par pouce. Il existe des valeurs de dpi optimales dépendant des types et tailles de photos. Plus n’est pas toujours mieux. Il y a une limite ou un seuil au-delà duquel l’augmentation n’apporte rien. Cette limite dépend de la résolution de la photo d’origine.

  • 300 à 400 dpi conviennent pour des photographies personnelles standards. Cela rend possible des impressions en format d’origine ou légèrement agrandi.
  • Parce que les tirages de petite taille et les diapositives contiennent de nombreux détails localisés dans une petite zone, capturez plus de points par pouce, environ 1400 à 1500 dpi.
  • Les négatifs contiennent aussi beaucoup de détails. Sélectionnez dans ce cas un minimum de 1500 à 2000 dpi. Rappelez-vous qu’une augmentation des dpi entraîne la production de fichiers plus volumineux.

8-bit_onlyCertains logiciels permettent de régler la “profondeur des couleurs” exprimée en bits par pixel. Plus le nombre de bits par pixel est élevé, plus riche est la palette numérique. Le paramètre de numérisation le plus souvent utilisé est de 8 bits par pixel pour des photos en niveaux de gris (certains scanners proposent également 16 bits), et 24 bits par pixel pour la couleur (certains scanners vont jusqu’à 48 bits). Un nombre accru de bits par pixel permet une édition ultérieure de meilleure qualité. Mais pour une numérisation standard pour laquelle il n’y a pas d’édition prévue ou pour laquelle la qualité n’est pas un défi, sélectionnez  8 bits pour les niveaux de gris et 24 bits pour la couleur. Rappelez-vous qu’une augmentation des bits par pixel entraîne un volume de données accru et des fichiers plus volumineux. Si la photo que vous souhaitez numériser est en noir et blanc, sélectionnez « niveaux de gris ». Si le papier photo est en couleur, sélectionnez “couleur”.

Etape 3 : Format de fichier et Compression

tiff-lzw-compression_smallLe logiciel du scanner enregistre votre scan sous forme de fichier numérique dans les formats courants TIFF ou JPEG . Le format TIFF, préféré pour la préservation des données numériques, contient l’ensemble des informations en provenance du scanneur. Enregistrez si possible votre fichier maître au format TIFF. Si l’espace de stockage est limité, vous pouvez compresser et réduire la taille de ces fichiers. Certains logiciels offrent l’option de compression LZW qui permettra de réduire la taille des TIFF sans perte d’informations. C’est ce qu’on appelle la compression « sans perte ».

jpeg_max-quality_200En revanche , l’enregistrement d’une image au format JPEG entraine une compression “avec perte”. Un fichier JPEG est par nature comprimé. Une partie des données numériques capturées par le scanner est perdue lors de l’enregistrement au format JPEG. Vous pouvez sélectionner des niveaux variables de qualité, impliquant différents niveaux de compression allant de « compression faible » – avec une perte de données faible et une qualité d’image élevée – à « compression élevée » – avec une quantité élevée de données perdues et une qualité d’image moindre.

Nous recommandons qu’en cas d’intention de modification ou d’édition d’une photo numérique, vous enregistriez deux versions: une version maître et une copie de travail. Le fichier TIFF sera le fichier maître qui pourra être stocké en toute sécurité avec vos autres archives numériques personnelles. Utilisez une version JPEG comme copie de travail. Le fichier JPEG sera plus petit et plus facile à envoyer par email ou à adresser aux médias sociaux. Éditez, modifiez et travaillez avec ce JPEG. Vous pourrez toujours faire une nouvelle copie JPEG à partir du TIFF maître.

Une fois le type de fichier sélectionné, une fois défini la profondeur de couleur et réglé la résolution, vous êtes prêt à numériser. Prévisualisez le scan si vous disposez de cette option, regardez la vue pour vous assurer qu’il n’y a pas de poussière, de cheveux ou d’effet indésirable. Vérifiez que la photo est correctement alignée. Ensuite, appuyez sur « Scan ».

Renommer un fichier n'affectera pas le contenu du fichier.

Renommer un fichier n’affectera pas le contenu du fichier.

Après numérisation, certains logiciels vous demanderont de donner un nom de fichier, d’autres le nommeront automatiquement. Si un nom alphanumérique du style « DC2148793.jpg » est donné à votre fichier, vous pouvez le conserver ou bien en changer. Pour renommer, faites un clic droit – si vous êtes sur PC – et sélectionnez « Renommer ».  Sur Mac, faites un contrôle-clic et sélectionnez “Renommer”. Nous vous recommandons de renommer le fichier pour vous aider à le retrouver plus tard. Si le nom de fichier commence par la date suivie éventuellement du mois et du jour, auquel on ajoute un ou deux mots significatifs, cela permet l’affichage automatique des fichiers avec classement par ordre chronologique.

Retirez chaque photo du scanner en glissant dessous un morceau de papier et en le soulevant pour éviter ainsi de toucher le verre avec les doigts.

Dupliquez et sauvegardez vos données en plusieurs endroits différents dès que possible. Tous les cinq ans ou plus, faites migrer vos archives numériques personnelles sur un nouveau support de stockage afin d’éviter d’avoir votre collection coincée sur des supports obsolètes.

Vous trouverez d’autres articles en anglais de Mike Ashenfelder sur : http://publiclibrariesonline.org/author/michaelashenfelder/

[Note additionnelle du traducteur] Il est recommandé d’utiliser un plan pour nommer ses fichiers. Les caractères sous-ligné underscore (_) et tiret (-) peuvent servir de séparateur. Les majuscules, accents, espaces et caractères spéciaux sont à éviter. Un exemple de nom incluant la date du document, un identifiant et un numéro pourrait être « 20140618_toureiffel-12.jpg ». Si votre scan est destiné à être diffusé sur le web, pensez à optimiser (diminuer) la résolution pour le confort des usagers et la performance des serveurs.

Thanks Mike for your article and agreement for translation !

, ,

Poster un commentaire

Archival Disc, un nouveau format de disque optique

2015 verra le lancement par Sony et Panasonic d’un nouveau format de disque optique, l’Archival Disc, qui stockera jusqu’à 1 To de données par disque. Les disques à usage professionnel présenteront une résistance accrue à l’humidité et à la poussière. La rétrocompatibilité est assurée.

Poster un commentaire