La théorie de l'information est née d'un article en deux parties que Shannon a publié en 1948, quand il était chercheur aux Laboratoires Bell. Il a montré comment la notion jusqu'alors vague d'information pouvait être définie et quantifiée avec précision. Il a établi l'unité essentielle de tous les moyens et canaux d'information : les textes, les communications téléphoniques, les messages radio, les photos, les films… peuvent être codés dans le langage universel des chiffres binaires, ou bits, terme qu'il est le premier à utiliser. Il a mis en avant l'idée que, une fois que l'information était devenue numérique (transformée en une suite de bits), elle pouvait être transmise (ou stockée) avec un taux d'erreur qui pouvait être rendu arbitrairement petit, et ce même si le canal (ou le moyen de stockage) lui-même est imparfait, source de bruit et d'erreur. Ce saut conceptuel a conduit directement à des moyens de communication et de stockage robustes et rapides.
Trop de bruit !
La théorie de l'information de Shannon a montré que les limites ultimes de capacité de communication (et de stockage) de l'information étaient liées au bruit présent dans les canaux. Au début des années 2000, la recherche sur la théorie de l'information a frôlé ...
Lire la suite gratuitement