Information, complexité, hasard [JP. Delahaye]
17-02-2007

Extraits de l'ouvrage Information, complexité et hasard

par Jean-Paul Delahaye

Ed Hermès 

  1. Présentation de l'ouvrage et de l'articulation philosophie-mathématiques
  2. Introduction aux différentes notions d'information en mathématiques 

Présentation

Les mathématiques cherchent à mieux connaître le monde des entités abstraites — c'est la découverte d'énoncés nouveaux et de leur démonstration —, et tentent de multiplier les structures offertes aux autres disciplines pour modéliser leurs objets et les rapports qui les lient. Cette multiplication des entités et structures se fait selon deux méthodes qu'on peut appeler la méthode interne et la méthode externe. La première est celle de la création quasi-combinatoire de nouveaux objets par l'exploration et l'association de ceux déjà disponibles. En topologie, par exemple, les opérations de somme et de produit — et bien d'autres — sur les espaces déjà connus en définissent de nouveaux. La technique de la classification permet aussi de découvrir de nouveaux objets et de nouvelles structures qui étaient déjà implicitement présents dans les anciens mais non encore identifiés. L'exploration des systèmes d'axiomes et des variantes de ceux déjà explorés est parfois aussi une méthode d'extension interne du champ mathématique.

La méthode externe est celle où les nouveaux modèles formels proviennent d'ailleurs. Bien sûr la physique a été et est toujours l’occasion de l’introduction de nombreuses entités et structures mathématiques, mais l'aspect le plus fascinant de la méthode externe est celui qu'on voit à l'œuvre en logique : un concept intuitif, parfois vague, trouve une définition et vient enrichir le mondé mathématique qui bien sûr, en retour, éclaire le domaine intuitif (par exemple la philosophie des sciences) d'où il est sorti.

Plusieurs cas d’extension du domaine mathématique par la philosophie sont particulièrement remarquables et je vais en citer deux. Le premier est celui de la définition des fonctions calculables par algorithmes (par Church en 1934) qui nous servira souvent de modèle car ce fut une réussite étonnante et imprévue qui a ouvert un monde mathématique nouveau (celui de la théorie de la récursivité) et a introduit en philosophie toute une série d'éclaircissements — car, par exemple, on en tire une définition absolue de la notion de système formel —, mais aussi de problèmes que nous sommes toujours en train de résoudre aujourd'hui — je pense en particulier à ceux concernant l'effectivité en physique, en biologie, en neurosciences, etc..

Le deuxième exemple de l'intervention externe de la philosophie en mathématiques que je veux citer est celui résultant du travail sur la notion de démonstration. Là tout n'est pas aussi net qu'avec les fonctions calculables par algorithmes car les analyses philosophiques de la notion de démonstration ont produit plusieurs systèmes formels (le premier à être assez puissant pour l'usage des mathématiciens est celui des Principia) dont de nombreux peuvent prétendre être suffisamment généraux pour représenter toutes les preuves des mathématiques usuelles, mais dont aucun — d'après les théorèmes d'incomplétude de Gödel — ne peut prétendre donner une définition définitive de la notion de démonstration. C'est là une situation remarquable qu'on peut voir, ou bien comme un succès de la formalisation — c'est comme cela que le plus souvent les mathématiciens (par exemple Bourbaki) l'ont reçu —, ou bien comme la marque de son impuissance prouvée une fois pour toutes — c'est l'interprétation facile des théorèmes de Gödel (le chapitre 6 revient sur cette question).

Les progrès faits lorsque la tentative de formalisation mathématique d'un concept intuitif aboutit (même partiellement comme dans le cas du concept de démonstration) sont de première importance car ils ont deux faces. La première est mathématique : une nouvelle structure est mise à jour, elle est souvent intéressante et donne lieu à une nouvelle branche mathématique (dans les exemples donnés ci-dessus il s'agit de la théorie de la calculabilité, et de la théorie de la preuve), et la seconde est philosophique : car ce que les mathématiques disent de la structure qu'on leur a montrée et qu'elles ont su formaliser possède un sens philosophique qui sans le passage par les mathématiques n'aurait pu se manifester.

Tout notre ouvrage tourne autour de ces formalisations mathématiques de concepts intuitifs et philosophiques et sur l'enrichissement mutuel extraordinaire qui en résulte pour les mathématiques et pour la philosophie.

Le chapitre 1 s'intéresse au concept d'information. A-t-on aujourd'hui une bonne notion formelle du concept d'information ? Au travers d'une réflexion qui, dans ce chapitre, n'entre pas dans le détail technique nous apportons une réponse prudente en mettant l'accent sur les limitations de la théorie classique de Shannon et sur l'intérêt de la théorie algorithmique de l'information introduite par Solomonoff, Kolmogorov et Chaitin (que nous appellerons simplement théorie de la complexité de Kolmogorov). Ce chapitre doit être vu comme une introduction générale aux chapitres 2, 3 et 4 qui reprennent soigneusement sous d'autres angles les idées évoquées dans ce premier chapitre.

Le chapitre 2 part du problème de la formalisation de la notion intuitive de suite infinie aléatoire que ne donne pas la théorie classique des probabilités telle que l'a axiomatisée Kolmogorov dans les années 1930. Il montre en fournissant des détails historiques comment la théorie de la calculabilité introduite dans cette problématique en 1940 en complément à des analyses de von Mises, a finalement, en 1965, grâce à Martin-Lof donné une solution largement satisfaisante : la notion formelle de suite infinie aléatoire définie par les tests statistiques effectifs (équivalente à la notion de suite incompressible). De la même façon qu'on parle de la thèse de Church à propos de l'identification mathématique de la notion de fonction calculable par algorithme, nous proposons de parler de la thèse de Martin-Lof pour l'identification mathématique de la notion de suite infinie aléatoire par Martin-Lof. Ce chapitre met clairement en avant les liens entre information, complexité et hasard, que la théorie de Shannon avaient déjà esquissés mais qui prennent là une forme que nous croyons plus profonde.

Ces liens sont rendus encore plus précis au chapitre 3 qui donne quelques développements mathématiques et montre comment la théorie algorithmique de l'information peut être vue comme un complément naturel de la théorie classique de la calculabilité et comment la classification des parties de N (assimilable à une classification des concepts) en trois classes naturelles (proposée par Myhill en 1952) peut être étendue en une classification en cinq classes. La rencontre de nouvelles formes des théorèmes d'incomplétude de Gödel et de leurs extensions par la théorie algorithmique de l'information confirme encore qu'on a bien là un complément naturel de la théorie classique de la calculabilité. Ce chapitre plus mathématisé que les précédents peut servir de texte d'introduction à la théorie de la complexité de Kolmogorov.

Le chapitre 4 aborde une question beaucoup plus nouvelle et qui n'a pas atteint la maturité de celles traitées dans des chapitres précédents : la formalisation de la distinction intuitive entre complexité aléatoire et complexité organisée. Nous y expliquons comment, là encore, la théorie algorithmique de l'information donne des outils nouveaux et propose (par le biais d'une idée de C. Bennett) une solution qui pour l'instant a reçu assez peu d'attention mais qui nous semble fondamentale. Il est remarquable que la théorie de la profondeur logique de Bennett rencontre dans son développement des difficultés extrêmes liées aux conjectures non démontrées de la théorie de la complexité des algorithmes (dont la plus célèbre est «P=NP ?»).

Le chapitre 5, toujours dans le même esprit d'explorer les situations où les tentatives de formalisation de concepts intuitifs enrichissent les mathématiques et les domaines d'origine, aborde la question de l'induction. Ici, il n'y a pas à proprement parler d'identification nouvelle (pouvant donner lieu à une thèse comme la thèse de Church, la thèse de Martin-Lof, où la proposition de Bennett) car il s'agit plutôt d'exploiter la thèse de Church pour modéliser les capacités d'induction d'une machine et s'interroger alors sur les limites et les propriétés de cette induction (étude des normes de rationalité). Le bilan de l'approche décrite — parfois appelée : inférence inductive — est un peu décevant sur le plan philosophique et appelle sans doute de nouvelles idées et de nouveaux développements.

Le chapitre 6 reprend une question que les chapitres précédents ont tous rencontrée et qui dans les propositions de modélisation de nouveaux concepts mathématiques semble jouer un rôle crucial. Il s'agit de l’indécidabilité et plus spécifiquement des formes nouvelles des théorèmes d'incomplétude de Gödel. Nous montrons, en utilisant en particulier des arguments de S. Feferman, que loin de conduire simplement à la conclusion (de type «réalisme gödélien») que cette indécidabilité est l'expression d'une inaccessibilité prévisible et évidente de certains aspects du monde mathématique, on peut aussi analyser plus finement la situation et y voir la marque de l'inadéquation (par idéalisation et simplification ontologique) des systèmes formels de haut niveau en mathématiques, comme celui de la théorie des ensembles de Zermelo-Fraenkel (ZF).

Les chapitres 7 et 8 abordent la question, devenue essentielle, de la calculabilité en physique. On y montre par une analyse classificatoire que ce problème possède plusieurs traductions formelles qu'il est intéressant de distinguer et qu'il n'est pas sans lien avec d'autres problèmes plus anciens comme celui de l'infini en physique et celui du déterminisme. Là encore, nous pensons avoir montré que l'approche formelle du problème, même si elle ne le résout pas totalement, permet au moins d'éviter la répétition indéfinie des mêmes oppositions.

Toujours dans le but d'illustrer l'apport des nouvelles formalisations mathématiques, le chapitre 9 traite de la question des paradoxes sémantiques. Ceux-ci d'une manière différente mais tout aussi essentielle que les théorèmes d'incomplétude, désignent des obstacles que rencontre la formalisation. Ici, on constate que les modélisations formelles, par exemple tentant d'axiomatiser le concept d'ensemble (comme ZF), ou tentant de résoudre les paradoxes sémantiques n’échappent jamais à certaines limitations élémentaires dont la partialité, c'est-à-dire l'incapacité à éviter qu'un extérieur non représentable réintroduise un problème (parfois sous la forme d'un nouveau paradoxe) presque identique à celui du point de départ.

On le voit, la leçon globale est délicate à énoncer : les succès obtenus dans la formalisation de nouveaux concepts sont évidents mais ne sont jamais de simples éclaircissements qui règlent les problèmes une fois pour toutes. Dans chaque cas de nouvelles difficultés s'introduisent : on dirait qu'il y a un prix à payer pour la formalisation des concepts philosophiques et logiques profonds. Ce prix porte les noms d'indécidabilité et d'incalculabilité quand il s'agit des notions de démonstrations et d'algorithmes. Aujourd'hui, en passant aux concepts d'information, de complexité et de hasard, ce prix est l'aggravation de l'indécidabilité et l'introduction de conjectures concernant des problèmes simples («P=NP ?» par exemple), dont la difficulté semble redoutable, et qui là où on croyait avoir levé le voile en réinstallent donc un nouveau.

Pourquoi cette contrepartie aux succès de la formalisation ? Quel est son sens ? Où cela nous conduit-il ? Nous ne répondrons pas, à ces questions, mais nous l'espérons nous réussirons à montrer qu'en acceptant ce jeu entre les mathématiques et la philosophie on avance, on éclaircit, et que les nouvelles questions auxquelles on aboutit sont les marques d'un progrès profond et mutuel.

 

 

Chapitre 1

L'information

Résumé

La notion d'information dispose-t-elle d'une ou de plusieurs théories satisfaisantes ? Mathématiquement, elle en dispose de nombreuses dont nous tentons de montrer qu'aucune n'est en mesure de constituer une théorie complète et définitive de l'information. Nous insistons sur l'intérêt de théories récentes comme celle de Kolmogorov et celle de Bennett. En physique, le concept d'information est difficile à identifier malgré des liens souvent évoqués avec la thermodynamique, liens qui semblent avoir subi une refonte de première importance très récemment grâce aux travaux de Bennett et Zurek. Quant à la biologie, elle cumule toutes les difficultés, car de toute évidence un sens pragmatique doit être attribué au concept d'information biologique qui rend inadéquates ou incomplètes les théories mathématiques de l'information et peu probable l'utilité des théories thermodynamiques de l'information. Ce chapitre est une introduction générale aux chapitres 2, 3 et 4 qui reprennent, en les détaillant, certains des points mentionnés ici.

 

1-1.     Introduction

Le mot information est employé dans des phrases et des contextes très variés. Par exemple on dit : "Les informations contenues dans ce livre", "L'information dont il dispose sur le problème", "Les informations codées dans le génome" ; "Le peu d'informations qu'a apporté son long discours."

Lorsqu'on parle d'information on pense souvent "information ayant une certaine valeur", ou "information pouvant servir à ...", ou "contenu en information". On sent bien que derrière ce mot se cache quelque chose de complexe, quelque chose de variable peut-être, quelque chose en tout cas qui mérite qu'on y réfléchisse. On est donc amené à se poser la question :

Peut-on faire une théorie scientifique générale de l'information ? Et si oui, comment s'y prendre ?

Il n'est pas facile de répondre sérieusement, et il est très facile de répondre mal, car certaines théories mathématiques (ou physiques) utilisent déjà le mot information, énoncent des théorèmes et donnent l'illusion que le problème est résolu et que donc on peut parler mathématiquement de l'information.

La théorie de l'information de Shannon (Shannon Weaver 1949, voir aussi Brillouin 1959, Welsh 1988) pendant longtemps a prétendu détenir le sens de ce qu'est l'information. L'intimidation a d'ailleurs si bien réussi que certains croient que l'information c'est ce qu'en dit cette théorie et rien d'autre. Lorsqu'on a voulu parler précisément de l'information génétique on a essayé d'établir des liens avec cette théorie mathématique ; les résultats n'ont pas été à la mesure des espoirs et des ambitions annoncées (Atlan 1972 1979) et on en a donc finalement contesté la pertinence (Tonnelat 1978). On s'est parfois consolé en disant que ce n'était qu'une théorie de la transmission de l'information. Aujourd'hui il semble clair que la théorie de Shannon a assez peu enrichi la compréhension que les biologistes ont, par exemple, de la façon dont le génome se trouve inscrit dans les chromosomes de chaque cellule d'un être vivant.

De même, alors qu'à un moment on a pu penser que la théorie de l'information allait être «la théorie de l'informatique», on a vite découvert qu'il n'en était rien, et les programmes des licences et maîtrises d'informatique d'aujourd'hui laissent bien peu de place à cette théorie.

Heureusement, depuis une vingtaine d'années une autre théorie de l'information, dite "théorie algorithmique de l'information" ou "théorie de l'information de Kolmogorov", est apparue (voir chapitres 2 et 3 ou Kolmogorov 1965, Chaitin 1966 1987ab, Li Vitanyi 1991, 1993). Parfois on la présente comme un substitut à la théorie de Shannon, mais puisqu'une théorie mathématique ne saurait être fausse du point de vue des mathématiques (et nul ne prétend qu'il y a de fausses théories de l'information), on se trouve en présence de deux théories mathématiques de l'information, et donc l'une est de trop. A moins que ce ne soit les deux.

C'est ce que nous allons soutenir ici. Précisément, nous allons tenter de démontrer que ni la théorie de Shannon, ni la théorie de Kolmogorov, ni aucune autre, ne disent tout de ce qu'est l'information, et que de plus, chacune de ces théories en prétendant être la théorie de l'information empêche de progresser. L'information doit être conçue sous des formes générales et variées dont il est peu probable qu'on fasse le tour rapidement, et dont aucune théorie mathématique ne fournit pour l'instant le secret ultime.

En cours de chemin nous reconnaîtrons aux théories mentionnées un intérêt réel, celle de Kolmogorov d'ailleurs méritant une attention particulière qu'elle n'a peut-être pas encore reçue, à cause sans doute des déceptions produites par les prétentions excessives de la théorie de Shannon, qui ont laissé un goût amer à ceux qui s'y sont épuisés pour peu de résultats.

Sans prétendre donner «la solution» à un problème qui nous semble n'en avoir aucune de simple, nous proposerons une vue possible de ce qu'on peut entendre par information relativement à un but, et par information descriptionnelle (qui en est un cas particulier).

Beaucoup des propos que nous allons tenir sont de simples remarques de bon sens, mais il est important de les formuler, tant les approximations, excès de simplification, identifications injustifiées et abus naïfs sont nombreux dans la littérature scientifique et de vulgarisation dès qu'on parle d'information. Les cas de la physique et de la biologie seront examinés à part et là encore nous soutiendrons que la prudence est de rigueur, quoique pour la physique des travaux récents de W. H. Zurek aient fait tout à coup avancer considérablement notre compréhension des liens entre entropie physique et information.

1.2.    Les théories de l'information

1.2.1.   Des  exemples à prendre au sérieux

Précisons le problème. Pour simplifier nous allons supposer que nous avons une suite de symboles s. Nous allons essayer de réfléchir à ce que nous entendons lorsque nous parlons de son contenu en information ou de sa valeur en information.

Pour rendre les choses un peu concrètes, nous prêterons une attention particulière aux exemples suivants de chaînes de caractères :

  •     * la suite des caractères composant l'Introduction à la Psychanalyse de Freud ;

  •     * la liste dactylographiée des emplacements des lance-missiles américains dans le monde ;

  •     * une table de logarithmes ;

  •     * le génome complet d'un virus HIV du Sida ;

  •     * un disque compact avec les concertos pour piano de Chopin interprétés par Samson François ;

  •     * le programme du traitement de texte que j'utilise pour taper ce texte tel qu'il est en ce moment dans la mémoire de mon ordinateur ;

  •     * le programme de ce même traitement de texte avant qu'il n'ait été compilé, qu'on appelle «programme source» (l'éditeur du logiciel ne le diffuse pas) ;

  •     * le résultat de tel sondage politique commandité par un parti et qu'il se garde bien de rendre public.

Tous ces exemples correspondent bien à des objets ayant, ou ayant eu à un moment donné, un contenu en information d'une certaine valeur. La preuve en étant simplement qu'ils ont pu être vendus et achetés, ou qu'on a dépensé de l'argent pour  les produire, ou qu'on continue d'en dépenser pour les conserver. Une théorie générale de l'information qui ne reconnaît pas à l'un de ces objets une valeur en information ne peut qu'être incomplète ou inadéquate. Une théorie de l'information qui ne donne pas un moyen de comparer entre elles des valeurs du contenu en information de ces objets ne peut pas prétendre être "la théorie de l'information".

1.2.2.  Le  contenu  brut en  information

Accordons qu'il y a un contenu brut d'information pour chacun de ces objets, qu'il est donné en digits (ou bits) et qu'on peut le définir comme le nombre de mémoires élémentaires que la chaîne s occupe dans la mémoire d'un ordinateur quand on ne lui fait subir aucun traitement particulier autre que la mise sous un format compatible avec le système de l'ordinateur.

Le contenu brut d'information d'une chaîne de caractères s de longueur n est donnée par n si s ne comporte que des 0 et des 1 et c'est : n log(m)/log(2) si la chaîne comporte des caractères pris parmi m, au lieu de pris parmi 2.

Dans nos exemples, l'objet ayant le contenu brut d'information le plus grand est sans doute le disque compact, celui ayant le plus petit contenu brut d'information est la liste des emplacements des lance-missiles. Celui ayant le plus de valeur marchande est le programme non compilé de traitement de texte, ou la liste des emplacements des lance-missiles (la valeur de cette liste évolue sans doute à la baisse). Celui ayant le moins de valeur aujourd'hui est la table de logarithme, à moins que ce ne soit le résultat du sondage s'il est ancien et devenu inutile.

Il est clair que le contenu brut en information ne détermine pas la valeur de l'information. C'est une évidence : la valeur d'une information est quelque chose de plus compliqué et de relatif.

Et c’est bien parce que la valeur en information d'une chaîne de caractères est relative à un certain but et à une certaine situation qu'il y a plusieurs théories de l'information et qu'aucune ne peut vraiment traiter tous les problèmes que pose la notion d'information.

Si un but B est donné nous noterons Val(s, B) la valeur de l'information contenue dans s relativement à ce but B. Pour l'instant il s'agit d'une notion imprécise, mais nous allons voir que dans un certain nombre de cas simples Val(s, B) possède une définition naturelle. Nous allons découvrir qu'en précisant le but B on obtient différentes théories, dont en particulier les deux théories mentionnées dans l'introduction : la théorie de l'information de Shannon, et la théorie algorithmique de l'information.

1.2.3. La  théorie  algorithmique  de  l’information

Si on se fixe le but de compresser au maximum la chaîne de caractères s et on suppose qu'on dispose pour cela d'une machine M alors : la valeur de l'information de s est la longueur du plus petit programme (écrit en binaire) qui lorsqu'on le donne à M lui permet de reconstituer la chaîne s. La valeur en information c'est ce contenu incompressible (relatif à M) de s.

Il se trouve que la puissance de calcul des machines n'est pas sans limites. Elles peuvent aller plus ou moins vite, mais dès qu'on a affaire à des machines d'une certaine puissance, ce qu'elles peuvent calculer est le maximum de ce que n'importe quelle machine puissante peut calculer. C'est là la découverte fondamentale de Turing 1936, qu'il y a des mécanismes universels calcul et qu'ils ne sont très compliqués (n'importe quel micro-ordinateur est un tel mécanisme universel). Pourvu donc qu'on se donne un mécanisme de calcul universel, la notion de plus petit programme pouvant engendrer s ne dépend pas de la machine universelle qu'on utilise. Ou plus précisément, ne dépend de cette machine que par une constante additive qu'on peut négliger en première approximation si on traite des suites suffisamment longues. C'est la découverte de ce résultat d'indépendance de la machine universelle qui fonde la théorie algorithmique de l'information (des détails sur la naissance de cette théorie sont donnés au chapitre 2).

La notion de valeur en information qu'on obtient est particulièrement séduisante et est absolue (à une constante additive près). C'est la notion de complexité de Kolmogorov ou de contenu en information de Kolmogorov. Elle correspond à notre définition générale lorsqu'on prend comme but B :

B = [compresser pour la machine universelle M]

Le chapitre 3 contient une présentation mathématique de la théorie de la complexité de Kolmogorov.

1.2.4.    Les    complexités   descriptionnelles

On peut considérer des mécanismes de calcul plus limités, par exemple ne servant pas à coder toutes les suites finies possibles mais seulement une certaine famille d'entre elles, ou ne disposant que d'une quantité limitée de mémoires, ou devant travailler en temps proportionnel à la taille de s, etc.

Détaillons un exemple. Si je ne souhaite que compresser le contenu en information des 500 chaînes de caractères que constituent les 500 livres de ma bibliothèque je peux imaginer une machine spécialement adaptée à ce travail qui pour chaque nombre entier n entre 0 et 499 me produise le livre numéro n de ma bibliothèque. Le contenu en information d'un livre de ma bibliothèque est alors simplement le nombre n (plus précisément log2(n)), et c'est effectivement le contenu brut de la chaîne de caractères que je dois transmettre à un ami présent dans ma bibliothèque, et à qui je parle au téléphone, pour qu'il accède à un certain livre que je veux lui conseiller de lire.

Bien sûr dans cet exemple la machine de compression que j'imagine est tout sauf universelle, et c'est bien pour cela que cette notion limitée de valeur d'une information est moins intéressante que la notion de valeur d'une information que donne la théorie de l'information de Kolmogorov. Il n'en reste pas moins que pour ce problème-là, la notion de contenu en information est donnée par cette machine de compression très particulière.

Nous parlerons de complexité descriptionnelle ou de contenu descriptionnel en information d'une chaîne de caractères s, lorsque nous ne supposerons pas que M est une machine universelle, et nous réserverons le terme de complexité de Kolmogorov ou de contenu en information de Kolmogorov lorsque M sera supposée universelle.

La théorie de l'information de Kolmogorov est particulièrement importante et séduisante car pour toute une famille de buts en apparence différents (compresser avec la machine universelle M, compresser avec la machine universelle M* etc.) elle donne — à une constante additive près — la même notion de contenu en information (voir quelques commentaires historiques sur cette notion au chapitre 2, et une présentation formelle au chapitre 3). Elle semble donc générale, mais il ne faut pas se méprendre, elle ne donne pas une définition universelle et définitive de la valeur d'une information, rendant inutile toute autre notion.

De plus, le problème de la constante empêche qu'on puisse réellement considérer la définition de Kolmogorov comme absolue : en effet pour une suite donnée s il existe un mécanisme universel de calcul M (et même plusieurs !) tel que s soit compressible par M en une chaîne de longueur 1, et donc tel que pour cette machine spécialement adaptée à s le contenu algorithmique en information de s soit 1. La notion d'information de Kolmogorov n'est pas absolue. C'est sans doute la moins arbitraire de toutes les définitions générales de contenu en information (grâce au théorème d'invariance évoqué plus haut), et c'est à elle sans doute que toute théorie générale doit se référer de préférence, mais il faut absolument garder à l'esprit qu'elle ne peut s'appliquer qu'à des situations où un grand nombre de chaînes de caractères (et si possible assez longues) sont présentes. Ce qui fait aussi l'importance de la théorie de Kolmogorov c’est que, parmi les théories descriptionnelles de l'information, elle possède une propriété de minimalité. Précisément, si M est une machine universelle et si M' est une autre machine (universelle ou pas) alors le contenu descriptionnel en information défini par M est plus petit que celui défini par M' en ce sens qu'il existe une constante c telle que pour toute chaîne s :

Val(s, [Compresser pour M]) ≤ Val(s, [Compresser pour M']) + c.

Une des difficultés que rencontre la théorie de l'information de Kolmogorov est due au lien qu'elle a avec les théorèmes d'indécidabilité de Gödel (voir Chaitin 1974. Delahaye 1988 1989b, §4.9. p. 109). Décompresser une suite de caractères s se fait sans problème (il suffit de faire fonctionner M), par contre compresser une suite de caractères s (c'est-à-dire trouver le plus court programme pour M qui redonne s) ne peut se faire qu'à la limite, c'est à dire comme résultat d'un calcul infini de M. On ne peut pas espérer mieux, puisque la fonction qui donne la complexité de Kolmogorov d’une chaîne s en fonction de s n'est pas une fonction récursive, et que déterminer la complexité d'une chaîne de caractères s constitue tout système formel donné S, un problème indécidable sauf pour des chaînes s d'une complexité inférieure à une constante c(S) dépendant de S (Chaitin 1974 1975ab, Delahaye 1988 1989a 1989b 1990b).

En tant que théorie optimale du contenu descriptionnel de l'information, la théorie de Kolmogorov joue un rôle théorique particulier qui commence à être reconnu par les biologistes et les physiciens. Citons par exemple : Chaitin 1979, Bennett 1982 1986 1988ab, Eriksson Lindgren Mansson 1987, Zurek 1989a 1989b 1990a 1990b, Caves 1990, Kiippers 1990. Nous y reviendrons.

1.2.5.   La théorie de  l’information pour la transmission de Shannon

Si le but poursuivi est de transmettre une chaîne de caractère s à un récepteur disposant de certaines connaissances sur la fréquence des lettres (prises dans l’alphabet {a_1, a_2, …, a_n}) de la chaîne de caractères s que je veux transmettre, on définira la valeur en information de s par la formule bien connue :

Val(s, [transmettre s à un récepteur qui sait que la probabilité de a_i est p(i)])

= E(s,{p(i)}) = longueur(s) (-Σ p(i)log(p(i)))

Cette formule donne le contenu moyen conformation de l'ensemble des chaînes de caractères s quand on tient compte de probabilités p(i) des lettres utilisées. Le «théorème de la voie sans bruit» indique que l'on ne peut pas en moyenne compresser plus les chaînes de caractères s.

Implicitement dans cette conception de l'information on suppose que le récepteur est susceptible de faire certains calculs pour reconstituer s à partir de ce qu'on lui transmet véritablement. Implicitement donc, on suppose un certain pouvoir de calcul du récepteur. En définitive, la machine M qui fait le décodage peut être prise comme référence et on découvre alors que la théorie de Shannon doit être vue comme une version probabiliste de la théorie algorithmique de l'information (on ne suppose pas de limitation aux machines M de décodages) et compatible avec elle dans le sens suivant :

Le contenu algorithmique moyen d'information de Kolmogorov des chaînes de caractères s de longueur n (pondérées par les probabilités résultant des fréquences supposées p(i) pour les lettres a_i) K(s,{p(i)}) vérifie la relation :

E(s, {p(i)})=K(s, {p(i)})+O(1)

(Ce résultat dû à Chaitin se démontre en utilisant le fait que rares sont les suites ayant un contenu algorithmique en information nettement plus petit que leur contenu brut.)

La théorie de l'information de Shannon est donc aussi une théorie de l’information par compression, qui au lieu de considérer des suites quelconques suppose que les suites qu'on transmet vérifient certaines propriétés statistiques exploitées pour compresser les données. Finalement, la théorie de Shannon est une théorie du contenu en information relativement à un but de compression et à une certaine distribution statistique des suites. Ce n'est donc pas une théorie de l'information limitée à cause du fait qu'elle ne s'occupe que du problème de la transmission, comme on le dit parfois, c'est une théorie de l'information probabiliste compatible avec la théorie algorithmique de l'information et limitée simplement parce qu'elle est relative à des distributions probabilistes particulières des ensembles de suites traitées.

Plus encore que dans le cas de la théorie de l'information de Kolmogorov, la notion de contenu en information, proposée par cette théorie, est dépendante de certaines données. D'une théorie individuelle du contenu incompressible d'information on est passé à une théorie du contenu incompressible d'information jnoyen. Cette l'ois non seulement la machine de reconstitution de la suites doit être connue (le récepteur doit connaître l'algorithme de codage) mais de plus le contenu en information de s n'est donné par la formule indiquée plus haut qu'en moyenne sous l'hypothèse d'une certaine distribution probabiliste des lettres utilisées (et donc des chaînes de caractères).

Bien des erreurs dans l'application de la théorie de l'information de Shannon proviennent de l'oubli de la nature probabiliste de cette théorie : cette théorie ne mesure jamais la quantité d'information contenue dans une chaîne de caractères individuelle, elle ne mesure que la quantité moyenne d'information d'une famille de chaînes (satisfaisant une certaine distribution). Parler de l'information de Shannon du génome de tel être vivant précis, par exemple, n'a pas de sens, car ce génome est une chaîne unique : l'approcher par le contenu incompressible moyen de l'ensemble des chaînes auxquelles elle appartient peut conduire à une erreur grossière.

Par exemple, si une chaîne de dix millions de 0 est vue comme un élément particulier de l'ensemble de toutes les chaînes de dix millions de 0 et de 1 (0 et 1 munis de poids égaux), on lui attribuera un contenu d'information de dix millions de bits, ce qui est absurde car une telle suite peut être décrite avec quelques bits (c'est d'ailleurs ce que j'ai fait). Une telle suite n'est pas un élément «typique» de l'ensemble de toutes les suites de dix millions de 0 et de 1. C'est commettre une erreur que de lui attribuer comme contenu en information celui d'une suite «typique».

La théorie de l'information de Shannon est compatible avec celle de Kolmogorov. Chacune a son rôle à jouer et par exemple dans une théorie de la mesure ou de la prise d'information. C'est le jeu complémentaire des deux théories qui doit être considéré : une situation sur laquelle on dispose de peu d'éléments ne peut être qu'assimilée à la situation typique de l'ensemble des situations compatibles avec ce que l'on sait (utilisation de la théorie de Shannon), et au fur et à mesure des précisions qu'on acquiert c'est la théorie de Kolmogorov qui doit devenir prépondérante. Cette idée est très précisément celle qui a servi de base à Zurek pour reformuler la théorie de la mesure et de l'entropie physique. Nous allons en reparler plus loin. Il ne fait aucun doute qu'elle doit donner des résultats intéressants en dehors de la physique.

Toutes les théories que nous venons de présenter sont des théories "compressionnelles" (ou "descriptionnelles") de l'information. Compresser des données est certes important mais il est bien clair que ce n'est pas cela uniquement qui constitue la valeur d'une information. On sait par exemple qu'une suite tirée au hasard de 0 et de 1, est le plus souvent incompressible, mais cela ne signifie pas bien sûr que chaque suite de 0 et de 1 a de la valeur, ni que chaque suite de 0 ou de 1 est incompressible.

Une autre insuffisance frappante des théories descriptionnelles de l'information apparaît quand on considère la suite des cent premiers millions de digits de n qui a une complexité de Kolmogorov assez petite (car il y a des algorithmes courts qui la génère). Ce qui fait la valeur de cette suite (et on a dépensé beaucoup d'argent pour la calculer !) comme ce qui faisait la valeur des tables de logarithmes d'autrefois, c'est qu'une telle suite représente une quantité importante de calculs. La notion de profondeur logique proposée par Bennett prend en compte cet aspect du contenu en information, et on peut dire de cette autre théorie de l'information que c'est une théorie de l'information computationnelle. Son intérêt est peut-être égal à celui de la théorie de Kolmogorov.

1.2.6.   La notion de profondeur logique de Bennett

Si on poursuit l'objectif de limiter au maximum le nombre de pas de calculs qu'on doit faire pour retrouver s, alors la «valeur en information de la suite s» sera le nombre minimum de pas de calculs qu'il faut pour produire s.

Une théorie adaptée à cette notion de valeur de l'information est celle de Bennett (voir chapitre 4, et Bennett 1987 1988b 1990, Rucker 1987, Delahaye 1991a) où on définit la profondeur logique d'une suite s par le temps de calcul qu'il faut à une machine universelle M pour produire s à partir de sa description minimale (de Kolmogorov). Dans son article de 1988, Bennett montre que cette notion est robuste, c'est-à-dire qu'elle dépend relativement peu de la machine universelle qu'on se donne et qu'elle varie assez peu si au lieu du programme minimal on part d'un programme non minimal mais proche du programme minimal. Là encore on a une définition très séduisante de la valeur en information d'une chaîne de caractères.

Nous pensons effectivement que comme la théorie de l'information de Kolmogorov, cette théorie est appelée à jouer un rôle important en physique (Bennett 1986 1988b, Lloyd Pagels 1988), en biologie et dans d'autres disciplines, mais que pas plus que les autres, elle ne définit la notion de «valeur absolue en information d'une chaîne de caractères».

Bien sûr là encore de très nombreuses variantes sont possibles : limiter le pouvoir de calcul des mécanismes utilisés ; ne pas partir de la description minimale ; faire des hypothèses statistiques sur les fréquences d'apparition des lettres etc.

Bennett 1988b introduit aussi d'autres concepts liés à la profondeur logique bien que différents : la notion de chaînes de caractères ambitieuses, celle de chaînes de caractères cryptiques (voir chapitre 4, p. 117). Ces définitions confirment encore à nos yeux que la valeur de l'information contenue dans une chaîne de caractères s (même lorsqu'on s'intéresse plus au temps de calcul qu'à la compressibilité) n'a pas de définition universelle. Ces questions sont reprises en détail dans le chapitre 4.

1.2.7. Un  programme  compilé est de  l'information  de   valeur

Dans nos exemples du début nous avons considéré un programme de traitement de texte. Il est clair que la compilation d'un programme source en un programme exécutable crée de l'information de valeur.

Là le but est un but mixte : avoir une forme compacte d'un algorithme assez rapide réalisant une famille de calculs. Notons que :

* plus le code est rapide plus la compilation a de la valeur ;
* plus le code compilé est compact plus il a de la valeur (aujourd'hui, contrairement à ce qui se passait il y a 30 ans on préfère favoriser la rapidité aux dépens de l'espace, car le prix des mémoires a beaucoup baissé) ;
* plus nombreux sont les problèmes traités par le programme compilé, plus sa valeur est grande.

Ce qui fait la valeur de l'information contenue dans un programme compilé c'est un mélange de ces trois qualités (rapidité, compacité, taille du champ des problèmes traités), et d'autres encore comme l'originalité, la portabilité etc. La valeur de l’information d'un programme compilé (et de bien des chaînes de caractères données en exemple au début) ne se laissera jamais réduire à un seul aspect : le contenu en information d'un programme compilé ce n'est ni l'information algorithmique de Kolmogorov, ni l'information donnée par la théorie de Shannon, ni l'information-profondeur de Bennett.

1.2.8. Théories pragmatiques  de  la   valeur  de  l’information

Si on considère que le but qu'on poursuit est de nature pratique (et déjà avec le programme compilé cet aspect est apparu), par exemple survivre dans un milieu donné, ou gagner le plus possible d'argent tel jour à la bourse de Paris, alors la valeur de l'information contenue dans une chaîne de caractères s se mesurera en fonction du but poursuivi. Une information de grande valeur ce sera par exemple l'endroit où aller chercher tel aliment, ou ce sera le nom de l'action boursière qu'il faut acheter car elle va monter.

Aucune théorie générale de l'information n'est possible qui prenne en compte tous ses aspects pragmatiques qui déterminent la valeur d'une chaîne de caractères. Une fois le problème reconnu, c'est une évidence.

Que les théories générales puissent jouer un rôle particulier en physique ou en biologie c'est une hypothèse à ne pas écarter et que nous allons examiner maintenant. Mais il faut bien garder à l'esprit qu'aucune ne constitue «la théorie de l'information», que chacune est relative à un but, et que quand il sera question de biologie par exemple il est à prévoir que les aspects pragmatiques ne pourront pas être négligés.

1.3.     La physique et les théories de l'information

Malgré l'évidence d'un lien entre l'information et l'entropie thermodynamique, des difficultés diverses rendent difficile l'identification précise de ce lien.

Pour avoir une idée des usages plutôt flous qui sont faits du concept d'information en physique on pourra lire la presse de vulgarisation où une utilisation parfois délirante est faite du mot 'information', souvent d'ailleurs associé aux mots : 'complexité', 'ordre', 'désordre', 'organisation'. Même certains auteurs scientifiques se laissent entraîner par la «force suggestive» des mots. Dans Reeves 1986 une image cosmologique de l'évolution de l'information dans l'univers est décrite comme allant de soi, et cela bien que le concept d'information ne soit jamais rendu vraiment précis (dans ce livre comme dans bien d'autres textes il est vaguement assimilé à celui d'entropie physique). Un peu plus prudente est la présentation proposée dans Barrow Tipler 1986 où on trouvera des spéculations intéressantes (car valables au moins pour le contenu brut d'information) sur la quantité maximum d'informations que peut contenir le système solaire (1070) ou sur la possibilité en fonction des différents modèles cosmologiques pour l'univers de contenir ou pas un calcul infini ou une authentique machine de Turing universelle (voir aussi Tipler 1986). Plus étonnant est Stonier 1990 où sans même mentionner la théorie algorithmique de l'information, ce qui est un comble pour un ouvrage aux ambitions si généralistes, on va jusqu'à conjecturer l'existence d'une particule appelée 'infon' qui serait le quantum de l'information comme le photon est celui de la lumière ; tout cela sans qu'aucune réflexion de fond sur les théories mathématiques ou thermodynamiques de l'information ne soit présentée. Nous n'évoquerons pas certains délires purement littéraires (quoi que pensent ceux qui les commettent) où le nombre d'apparitions du mot 'information' est inversement proportionnel à la rigueur adoptée pour manipuler le concept.

Plus sérieusement, plusieurs problèmes se posent pour introduire le concert d'information en physique. Il semble que même pour les plus simples de ces problèmes aucune solution définitive ne s'impose aujourd'hui.

1.3.1.   Le problème de l’échelle de base, et du codage

Pour parler d'information (ne serait-ce que du contenu brut d'information) contenue dans un objet physique il faut choisir une échelle de description. Et plus cette échelle est petite plus le contenu en information est grand : les physiciens parlent de «divergence logarithmique» pour évoquer le fait que le contenu brut d’information tend vers l'infini quand on fait tendre vers 0 la résolution de la description physique de l’objet. Si le contenu en information dépend des choix que je fais pour le mesurer, c'est que ce contenu n'est pas 'objectif, comme l'est la masse, la température, l'énergie. L'évocation de la mécanique quantique pour choisir description est classique, mais ne résout pas complètement le problème. Une discussion très sérieuse de cette question peut être trouvée dans Zurek 1989b où une conclusion prudente est donnée : les notions de la théorie algorithmique de l'information résolvent une partie des problèmes bien qu'une part de subjectivité reste présente. Il est par ailleurs ridicule de se réjouir de cette subjectivité du concept physique d'information brut, car pour que la notion puisse avoir un sens véritable il faudrait au moins qu'elle ait une objectivité faible (intersubjectivité) — ce qui est le cas des concepts de la mécanique quantique (voir par exemple : d'Espagnat 1985 1989) — et sans laquelle rien n'est possible scientifiquement. Sur le problème de la discrétisation en physique voir les chapitres 7 et 8.

1.3.2.   Le problème  du  coût thermodynamique  de  l'information

Une des premières questions qui se pose à la physique concernant jjnformation est celle du coût thermodynamique minimum qu'entraîné sa manipulation et son stockage. Sur ce point les choses en sont aujourd'hui simplement au stade de la controverse.

Pendant plusieurs décennies (à la suite de Szilard 1929, Brillouin 1959), on a admis que l'explication du paradoxe du démon de Maxwell (un être microscopique qui en triant les particules d'un gaz réussit à extraire du travail de la chaleur ambiante, et contredit donc le second principe de la thermodynamique), devait être recherchée dans le coût thermodynamique de toute mesure.

A la suite des travaux de Landauer, Bennett, Toffoli et Fredkin sur la réversibilité thermodynamique du calcul (Landauer 1961, Landauer 1985, Bennett Landauer 1985, Bennett 1973 1982 1988e, Fredkin Toffoli 1982, Toffoli 1980 1982) cette explication a été contestée : la résolution du paradoxe du démon de Maxwell doit être recherchée non pas dans le coût de la mesure, qui pourrait être rendu nul, mais dans le coût thermodynamique de l’effacement de la mémoire du démon des informations qui lui permettent de trier les molécules de gaz, effacement qui doit être opéré à la fin de chaque cycle élémentaire pour restaurer le système dans son état initial (sur ce problème Bennett 1988a est une très bonne introduction).

Il en est résulté une controverse assez violente (Porod Grondin Ferry Porod 1984a 1984b, Landauer 1984, Bennett 1984, Benioff 1984, Toffoli 1984, Barrow Tipler 1986). D'un côté l’école de ceux qui pensent que tout calcul a un coût thermodynamique théorique minimum, et de l'autre ceux qui soutiennent le contraire et qui défendent l'idée que le seul coût théoriquement incompressible de la manipulation d'informations est la remise à zéro des mémoires, et qui proposent des schémas universels de calcul — des machines de Turing universelles — réversibles et ne conduisant donc en théorie à aucune dissipation pour fonctionner (sur les ordinateurs réversibles Bennett Landauer 1985, Filotti Mercouroff 1984 sont de très bonnes introductions). L'intervention du prix Nobel de Physique R. Feynman 1985 dans le débat a sans doute donné un avantage aux partisans de la possibilité théorique d'un calcul sans consommation d'énergie. Un doute reste donc concernant le coût minimal du transfert d'information, sur la solution correcte du paradoxe de Maxwell, et donc en définitive sur le sens thermodynamique de l'information.

Des progrès importants (Zurek 1989ab 1990ab, Caves 1990, Delahaye 1991g) semblent avoir eu lieu récemment qui donneraient raison aux partisans de la possibilité du coût théorique nul du calcul. Cette nouvelle approche de l'entropie physique associe l'entropie de Shannon S (classiquement évoquée par les thermodynamiciens pour fonder la notion d'entropie physique et appelée entropie de Boltzmann-Gibbs-Shannon) au contenu algorithmique en information de Kolmogorov K, ce qui donne une quantité S+K que Zurek propose de reconnaître comme l'entropie physique et qui permet de comprendre du point de vue de l'operateur ce qu'est une mesure, cela en échappant au paradoxe classique (que toute mesure fait baisser l'entropie de Boltzmann-Gibbs-Shannon). Cette nouvelle conception physique de l'information, outre qu'elle prouve à nouveau l'importance des concepts de Kolmogorov, risque si elle est acceptée par les thermodynamiciens théoriciens de bouleverser les fondements de la thermodynamique (qui, il faut bien le dire, ont toujours paru assez peu solides).

Il n'en reste pas moins vrai que même si les rapports entre la thermodynamique et les théories mathématiques de l'information semblent en passe de s'éclaircir, cela ne signifie pas que les progrès en termes de complexité et de richesse d'information dont l'univers semble le siège s'expliqueront seulement par la thermodynamique. D'autres notions d'information doivent être introduites en physique et le sont déjà (Lloyd et Pagels 1988 proposent d'introduire une notion de profondeur dérivée de celle de Bennett). Tout cela est particulièrement clair lorsqu'on réfléchit au contenu en information du génome d'un être vivant.

1.4.     La biologie et les théories de l'information

II est évident que la biologie moléculaire s'occupe d'informations. La reproduction d'une cellule suppose la duplication d'une quantité substantielle d'informations situées dans le noyau. C'est certain, le code génétique, les mécanismes de copie, de traduction chimique, de régulation, etc., comportent une composante «information».

De nombreux travaux ont été menés pour tenter de rendre compte en termes mathématiques du contenu en information des objets et processus biologiques. Citons l'utilisation de la théorie de Shannon par Atlan 1972. La théorie algorithmique de l'information a été aussi utilisée par Chai tin lui-même pour proposer une caractérisation formelle d'un être organisé (Chai tin T979) et par d'autres (Kiippers 1990). L'idée de base de Chaitin est que ce qui caractérise un être organisé E c'est que : la variation de la somme des quantités d'informations (algorithmiques) nécessaires pour décrire E quand on le sépare en morceaux de taille d, décroît très rapidement lorsque d croît. L'idée quoique très intéressante ne semble pas pour l'instant avoir eu la diffusion qu'elle mérite.

L'utilisation des concepts thermodynamiques en biologie a aussi eu beaucoup de succès. Cette utilisation est souvent très intéressante et ne repose pas forcément sur l’identification de l'entropie physique avec l'information en général, ni même avec l'information au sens de Shannon, identification dont nous avons vu plus haut toutes les difficultés. J. Tonnelat 1978 1979 et Prigogine 1966 1972 sont par exemple deux chercheurs ayant travaillé dans cette direction. Il ne semble pas pourtant qu'ils soient arrivés à une conception commune (voir par exemple Tonnelat 1979 p.622 qui conteste l'importance attribuée par Prigogine aux structures dissipatives pour expliquer l'existence des êtres vivants). Une certaine prudence est parfois souhaitée dans l'utilisation des concepts de la thermodynamique pour expliquer les phénomènes du vivant : «il est d'un intérêt tout à fait secondaire de savoir si l'entropie d'un être vivant augmente ou diminue au cours de certaines périodes de son existence» (Tonnelat 1979 tome II p. 162).

On le voit donc encore à propos de la biologie, ni les théories mathématiques de l'information, ni même les théories thermodynamiques ne résolvent tout.

Je crois qu'il est absurde de vouloir réduire l'information biologique pour la faire entrer dans le cadre d'une théorie mathématique de l'information, ou même de tenter de la réduire à une théorie physique de l/information. On a vu que déjà pour la physique plusieurs théories mathématiques sont amenées à se compléter pour rendre compte des concepts de base de la thermodynamique (ce sont les propositions de Zurek). Il est à prévoir que pour la biologie la situation sera encore plus compliquée. De toute façon, il est évident que la valeur en information du génome par exemple comporte un aspect pragmatique : un être vivant terrestre (dont le "plan est codé dans son génome") ne peut survivre que dans un contexte spécifié : l'information de son génome n'a pas de valeur absolue.

Est-ce que malgré cela certaines théories mathématiques ou physiques de l'information peuvent servir à la biologie ? La question est posée, et je ne crois pas qu'on ait répondu d'une façon satisfaisante à la question, aujourd'hui.

Examinons quelques hypothèses.

Assez vraisemblablement la machine chimique est universelle et donc la complexité de Kolmogorov du génome possède biologiquement une signification. Cependant il n'y a pas de raison de croire que le code génétique d'un individu soit écrit sous la forme la plus compressée possible (on soupçonne d'ailleurs que de grandes parties du génome ne servent à rien). Le contenu en information algorithmique de Kolmogorov est donc sensiblement inférieur au contenu brut en information et au contenu pragmatique en information.

L'information du génome possède certainement une valeur 'à la Bennett’ car le génome est le résultat d'une sorte de calcul qui a duré des millions d'années, et il n'y a pas à douter que ce calcul n'est pas simplifiable et réductible à quelque chose de court.

La valeur de l'information du génome est aussi une valeur 'relative' et 'pragmatique'. Relative à la chimie et à la physique de notre monde (et pas totalement indépendante de la forme particulière des lois de notre monde physique comme l'est la complexité de Kolmogorov). Pragmatique aussi, car la sélection a joué, et joue encore, et ce qu'elle sélectionne est ce qui est adapté «à un moment donné dans une situation de compétition donnée, dans un écosystème donné» : deux

génomes ayant la même complexité de Kolmogorov et la même profondeur de Bennett n'ont pas forcément la même valeur de survie (d'autres considérations sur ce thème sont proposées au § 4.6. p. 102).

1.5.      Conclusion

Dans tout cela il n'y a peut-être que des évidences, mais il faut les dire car les théories mathématiques disponibles ou qui s'élaborent encore concernant l'information ont des prétentions à l'universalité et à l'applicabilité dont il faut se méfier. Elles sont parfois mal assimilées : celle de Shannon n'a pas apporté grand chose à la biologie et a engendré beaucoup de discours dont aujourd'hui on comprend qu'ils étaient insuffisamment prudents ; celle de Kolmogorov semble parfois aussi induire en erreur (le chapitre 10 du livre de Kuppers 1990, qui pourtant tente une intéressante utilisation de la théorie algorithmique de l'information apparaît extrêmement hasardeux, pour ne pas dire faux).

L'attitude de prudence que je préconise n'implique pas la stérilité : souvenons-nous en effet de J. Monod qui ressentant sans doute que tout n'était pas clair du côté des théories physiques de l'information, parlait à propos de ce qu'on leur faisait dire et en particulier de l'identification information=néguentropie  «de généralisations et d'assimilations imprudentes» (Monod 1970 p.212). Monod était prudent, avec instinct il se méfiait des spéculations trop hâtives, et pourtant son travail ne fut pas stérile !

En ces domaines risqués, à vouloir aller trop vite on risque de ne pas tout voir ; comme de plus, ainsi que nous l'avons montré ici, beaucoup d'idées très intéressantes ont été avancées ces dernières années, il serait dommage de passer à côté parce qu'on fonce la tête baissée.

 
< Précédent

Qui est connecté

Il y a actuellement 1 invité en ligne

personnes ont visité ce site.