Calcul & informatique » Théorie de l'information

Liste des textes - 2 résultat
Claude E. Shannon (1916-2001), ingénieur, mathématicien et informaticien américain - Analyse par Olivier Rioul, Ingénieur général des Mines, Enseignant-chercheur à Télécom ParisTech

Dans ce texte fondateur de la théorie de l’information, Shannon définit la notion de communication, la fonde sur celle de probabilité, définit le terme bit comme mesure logarithmique de l’information, ainsi que la notion d’entropie informatique (par analogie avec celle de Boltzmann en physique statistique). Il définit aussi mathématiquement la capacité d’un canal de transmission : on peut transmettre l’information de façon fiable tant que le débit ne dépasse pas cette capacité – le bruit présent dans le canal ne limite pas la qualité de la communication, mais uniquement le débit de transmission.

2 fichiers à télécharger
Léon Brillouin (1889-1969) - Physicien et mathématicien français. - Analyse par Philippe Jacquet - Ingénieur général des mines, directeur de recherches à l'INRIA (Institut National de la Recherche en Informatique et en Automatique)

Brillouin fait le lien rigoureux entre l'entropie mathématique de Shannon et l'entropie statistique de Boltzmann en physique, et donne une signification physique à la notion de néguentropie (entropie négative) qu'il introduit.

3 fichiers à télécharger