nDans notre example (diapo 17), on a donc besoin de
n
((0+8)+(1+8)+2*(2+8)+4*(3+8)+2*(4+8)) = 105
nEtant donne que le texte original etait compose de 24 caracteres, prenant chacun 8 bits, l’encodage Lempel-Ziv ne nous offre pas de reduction car 24 * 8 – 105 = 87, une reduction de 45%!!!
nTheoretiquement: dans des fichiers contenant des symboles independents et tires au hasard avec les probabilites p1, p2, p3, etc… le nombre anticipe de bits necessaire par symbole tend vers l’entropie:
n
S pi log2 (1/pi)
§L’encodage Huffman atteint ce resultat, mais il doit connaitre les probabilites de chaque caractere. Lempel-Ziv l’atteint egalement mais sans connaitre les probabilites.