Actualités

Claude Shannon et l’avènement de l’ère numérique (Paris, 13/4)

Le 7 avril 2016

Dans le cycle de conférences « Un texte, un mathématicien » organisé par la Société mathématique de France à la Bibliothèque nationale de France en partenariat avec Animath, venez nombreux pour assister à l’exposé donné par...

Josselin Garnier (Université Paris-Diderot)

Claude Shannon et l’avènement de l’ère numérique

13 avril 2016 à 18 h 30
BnF
(site F.-Mitterrand, Grand auditorium, Hall Est, Quai François-Mauriac, Paris 13)


Émission sur France Culture : Claude Shannon et l’avènement du numérique


Résumé : 2016 est le centenaire de la naissance de Claude Shannon, qui fut l’un des responsables de la révolution numérique que nous vivons actuellement. John von Neumann, Alan Turing et bien d’autres visionnaires nous ont donné des ordinateurs capables de traiter l’information. Mais ce fut Claude Shannon qui a introduit le concept moderne de l’information.

La théorie de l’information est née d’un article en deux parties que Shannon a publié en 1948, quand il était chercheur aux Laboratoires Bell. Shannon a montré dans cet article comment la notion jusqu’alors vague d’information pouvait être définie et quantifiée avec précision. Il a démontré l’unité essentielle de tous les moyens d’information, en soulignant que les textes, les signaux téléphoniques, les ondes radio, les photos, les films, etc pouvaient être codés dans le langage universel des chiffres binaires, ou bits, terme que son article a été le premier à utiliser. Shannon a mis en avant l’idée que, une fois que l’information était devenue numérique, elle pouvait être transmise (ou stockée) avec un taux d’erreur qui pouvait être rendu arbitrairement petit, et ce même si le canal lui-même est imparfait, source de bruit et d’erreur. Ce fut un saut conceptuel qui a conduit directement à des moyens de communication (et de stockage) robustes et rapides.

La théorie de l’information de Shannon a montré que les limites ultimes de capacité de communication (et de stockage) de l’information étaient liées au bruit présent dans les canaux. Ceci a permis de définir une frontière entre ce qui est possible et ce qui est impossible de faire en termes de capacité de transmission. Au début des années 2000, le domaine de recherche sur la théorie de l’information a frôlé la mort, car il a semblé qu’on avait atteint les limites de capacité telles que prédites par Shannon. Cependant on verra que le bruit peut s’avérer bien surprenant, voire même utile.

Texte : C. E. Shannon, “A mathematical theory of communication”, Bell Syst. Tech. J., vol. 27, pp. 379–423, 623–656, July-Oct. 1948.

Bibliographie

L’orateur : Josselin Garnier est professeur à l’université Paris 7, et a également été professeur associé à l’École normale supérieure de Paris de 2011 à 2014. Il est membre d’un projet « avancé » financé par l’European Research Council. Ses travaux portent sur différents aspects de la théorie des probabilités et de leurs applications, en particulier l’étude de la propagation des ondes en milieux aléatoires, l’analyse de méthodes d’imagerie innovantes en milieux complexes, et la simulation d’événements rares. Il a été membre junior de l’Institut universitaire de France de 2008 à 2013, et a reçu un prix de l’Académie des sciences en 2007, ainsi que le prix Felix Klein en 2008.

En savoir plus : le site de la SMF

Partager cette actualité

La tribune des mathématiciens

Suivre IDM