A) Alice Jones B) John Smith C) David A. Huffman D) Robert Johnson
A) Codage ASCII B) Codage binaire C) Encodage à longueur fixe D) Encodage à longueur variable
A) Symboles commençant par A B) Symboles rares C) Symboles fréquents D) Symboles aux indices impairs
A) Un code qui commence par le même symbole B) Un code avec des mots de code de longueur égale C) Code dans lequel aucun mot de code n'est un préfixe d'un autre mot de code. D) Un code qui n'utilise que des 0 et des 1
A) Arbre parfait B) Arbre équilibré C) Arbre binaire optimal D) Arbre complet
A) Attribution de codes binaires aux symboles B) Construction d'une liste chaînée C) Compression des données D) Calcul des fréquences des symboles
A) O(n2) B) O(log n) C) O(n log n) D) O(n)
A) Codes infixes B) Codes postfixes C) Codes préfixes D) Codes suffixes
A) Taux de compression B) Consommation de mémoire C) Nombre de symboles D) Vitesse d'encodage
A) Symbole avec un nombre premier B) Symbole portant le nom le plus long C) Symbole le plus fréquent D) Symbole le moins fréquent
A) File d'attente B) Pile C) Tas binaire D) Liste chaînée
A) 1955 B) 1949 C) 1960 D) 1952
A) Codage arithmétique B) Codage Lempel-Ziv-Welch (LZW) C) Codage par longueurs de répétition D) Codage de Shannon-Fano
A) h(a_i) = -log2(w_i) B) h(a_i) = log2(1 / w_i) C) h(a_i) = 2w_i D) h(a_i) = w_i * log2(w_i)
A) H(A) = ∑(pour w_i > 0) h(a_i) / w_i B) H(A) = ∑(pour w_i > 0) w_i / log₂(w_i) C) H(A) = ∑(pour w_i > 0) log₂(w_i) D) H(A) = -∑(pour w_i > 0) w_i * log₂(w_i)
A) Nulle, car lim_(w→0+) w * log2(w) = 0 B) Elle est égale à la quantité d'information contenue dans le symbole. C) Elle contribue négativement à l'entropie. D) Elle est égale à l'inverse de son poids.
A) Un nœud feuille B) En suivant le nœud enfant droit C) Un nœud interne D) En suivant le nœud enfant gauche
A) Pile B) File C) File de priorité D) Tableau
A) Une B) Trois C) Deux D) Quatre
A) Dans les deux files d'attente simultanément B) Dans la première file d'attente C) Dans aucune des deux files d'attente D) Dans la deuxième file d'attente
A) En sélectionnant aléatoirement des nœuds dans l'une ou l'autre des files d'attente. B) En conservant les poids initiaux dans la première file d'attente et les poids combinés dans la deuxième file d'attente. C) En ajoutant uniquement des nœuds avec des poids uniques à la file d'attente. D) En triant les deux files d'attente par poids après chaque insertion.
A) Choisir l'élément de la deuxième file d'attente. B) Supprimer les deux éléments et recommencer. C) Choisir l'élément de la première file d'attente. D) Sélectionner un élément au hasard dans l'une ou l'autre des files d'attente.
A) Ils restent des nœuds feuilles. B) Ils sont combinés pour former un nouveau nœud interne. C) Ils deviennent les nœuds racines. D) Ils sont supprimés de l'arbre.
A) L'encodage d'images pour les pages web. B) La compression de texte dans les traitements de texte. C) La compression de fichiers audio. D) Les machines à fax.
A) Les problèmes liés au tri de données. B) Les problèmes qui n'impliquent pas de pondérations. C) Minimiser la longueur maximale du chemin pondéré, entre autres. D) Uniquement les problèmes liés à la compression.
A) L'algorithme de Huffman basé sur des modèles (ou des gabarits). B) L'algorithme de Huffman adaptatif. C) L'algorithme de Huffman binaire. D) L'algorithme de fusion de paquets.
A) Adriano Garsia. B) Richard M. Karp. C) Alan Turing. D) T. C. Hu.
A) La représentation binaire. B) La fréquence d'occurrence. C) Le coût de transmission. D) L'ordre alphabétique.
A) Université Princeton B) Université Stanford C) Université Harvard D) MIT
A) Un tableau de fréquences doit être stocké avec le texte compressé. B) Une clé de chiffrement doit accompagner les données compressées. C) Le texte original doit être stocké en même temps que la version compressée. D) Aucune information supplémentaire n'a besoin d'être stockée. |