information, théorie de l' - informatique.
Publié le 25/04/2013
Extrait du document
«
séparés « pile » ou « face », ces derniers traduisent des résultats équiprobables, de probabilité 1/2.
En utilisant la formule de Shannon, on peut déterminer que les messages « pile » ou « face » ont une quantité d’information égale à log 22 = 1.
4. 2 Autre définition
Ainsi définie par la formule de Shannon, la quantité d’information d’un message représente également le nombre de symboles binaires nécessaires pour représenter ce message.
Ces symboles, appelés bits, correspondent aux chiffres utilisés en
base 2, à savoir 0 et 1.
Dans l’exemple cité ci-dessus, il suffit en effet d’un seul symbole pour décrire chacun des deux messages, par exemple le symbole 0 pour « pile » et le symbole 1 pour « face ».
Si une pièce est lancée en l’air trois fois de suite,
les huit résultats possibles (« face-face-face », « face-face-pile », « face-pile-pile », « face-pile-face », « pile-pile-pile », « pile-pile-face », « pile-face-face » et « pile-face-pile ») peuvent être représentés par les messages 000, 001, 010, 011, 100,
101, 110 et 111.
On peut noter que la probabilité de chaque message valant 1/8, sa quantité d’information est par conséquent égale à log 28 = 3 : trois bits sont effectivement nécessaires pour représenter chaque message.
5 NOTION DE REDONDANCE
5. 1 Redondance naturelle
Prenons l’exemple de messages composés de combinaisons aléatoires des 26 lettres de l’alphabet, de l’espace et de 5 signes de ponctuation, et supposons que tous ces caractères aient la même probabilité.
La quantité d’information de chaque
caractère est donc I = log 232 = 5, ce qui signifie que 5 bits sont nécessaires pour coder chaque caractère, et donc chaque message.
En réalité, si l’on traite un texte, on s’aperçoit que les suites de lettres sont loin d’être le fruit du hasard.
Par exemple, la probabilité est très forte pour que la lettre suivant la séquence « informatio » soit un « n ».
Il apparaît donc possible de réduire le
nombre de bits nécessaires au codage, optimisant ainsi la transmission ou le stockage de l’information.
On peut montrer que le français écrit ordinaire véhicule de l’information d’environ 1 bit par lettre, ce qui signifie que la langue française, comme
d’ailleurs toute autre langue, possède un haut degré de redondance intrinsèque, appelée redondance naturelle.
Cette redondance n’a pas que des inconvénients : elle permet en effet de comprendre des messages dans lesquels les voyelles ont été
enlevées, ou encore de déchiffrer une écriture peu lisible.
5. 2 Redondance artificielle
Grâce à la théorie de l’information, il est donc possible de mesurer la redondance des messages à transmettre, puis de la réduire afin d’utiliser au maximum les canaux de transmission.
Les systèmes de communication actuels procèdent ainsi à
l’encodage des messages faisant appel au plus petit nombre de bits possible.
Cependant, pour réduire l’impact du bruit sur le canal, et donc éviter les erreurs lors de la transmission des messages, ces systèmes ajoutent à cet encodage une
redondance artificielle.
6 ENTROPIE
Dans la plupart des applications pratiques, lorsque l’on décide d’envoyer un message, on le choisit parmi un ensemble de messages possibles.
Tous ces messages sont susceptibles d’être transmis, mais avec une probabilité qui leur est propre.
On
désigne alors par entropie, terme emprunté à la thermodynamique, la moyenne des quantités d’information des différents messages possibles.
Dans le cas simple où les N messages ont tous la même probabilité, l’entropie totale H se traduit alors par
la formule H = log 2N.
Voir aussi science de l’information.
Microsoft ® Encarta ® 2009. © 1993-2008 Microsoft Corporation.
Tous droits réservés..
»
↓↓↓ APERÇU DU DOCUMENT ↓↓↓
Liens utiles
- octet octet, en informatique, unité d'information composée de 8 bits.
- information, autoroutes de l' - informatique.
- information, théorie de
- Théorie de l'information et association de mots. JULIUS LAFFAL.
- Théorie du complot : L’Homme n’a jamais marché sur la lune