A) Alice Jones B) David A. Huffman C) John Smith D) Robert Johnson
A) Encodage à longueur variable B) Encodage à longueur fixe C) Codage ASCII D) Codage binaire
A) Symboles rares B) Symboles commençant par A C) Symboles aux indices impairs D) Symboles fréquents
A) Un code qui n'utilise que des 0 et des 1 B) Un code avec des mots de code de longueur égale C) Un code qui commence par le même symbole D) Code dans lequel aucun mot de code n'est un préfixe d'un autre mot de code.
A) Arbre binaire optimal B) Arbre parfait C) Arbre complet D) Arbre équilibré
A) Construction d'une liste chaînée B) Calcul des fréquences des symboles C) Attribution de codes binaires aux symboles D) Compression des données
A) O(n2) B) O(log n) C) O(n log n) D) O(n)
A) Codes infixes B) Codes préfixes C) Codes suffixes D) Codes postfixes
A) Consommation de mémoire B) Vitesse d'encodage C) Taux de compression D) Nombre de symboles
A) Symbole avec un nombre premier B) Symbole le moins fréquent C) Symbole portant le nom le plus long D) Symbole le plus fréquent
A) Pile B) Liste chaînée C) File d'attente D) Tas binaire
A) 1952 B) 1955 C) 1949 D) 1960
A) Codage de Shannon-Fano B) Codage Lempel-Ziv-Welch (LZW) C) Codage arithmétique D) Codage par longueurs de répétition
A) h(a_i) = log2(1 / w_i) B) h(a_i) = -log2(w_i) C) h(a_i) = 2w_i D) h(a_i) = w_i * log2(w_i)
A) H(A) = ∑(pour w_i > 0) log₂(w_i) B) H(A) = ∑(pour w_i > 0) h(a_i) / w_i C) H(A) = ∑(pour w_i > 0) w_i / log₂(w_i) D) H(A) = -∑(pour w_i > 0) w_i * log₂(w_i)
A) Nulle, car lim_(w→0+) w * log2(w) = 0 B) Elle est égale à l'inverse de son poids. C) Elle est égale à la quantité d'information contenue dans le symbole. D) Elle contribue négativement à l'entropie.
A) En suivant le nœud enfant gauche B) En suivant le nœud enfant droit C) Un nœud interne D) Un nœud feuille
A) File de priorité B) Tableau C) Pile D) File
A) Quatre B) Une C) Trois D) Deux
A) Dans la deuxième file d'attente B) Dans aucune des deux files d'attente C) Dans les deux files d'attente simultanément D) Dans la première file d'attente
A) En sélectionnant aléatoirement des nœuds dans l'une ou l'autre des files d'attente. B) En conservant les poids initiaux dans la première file d'attente et les poids combinés dans la deuxième file d'attente. C) En triant les deux files d'attente par poids après chaque insertion. D) En ajoutant uniquement des nœuds avec des poids uniques à la file d'attente.
A) Choisir l'élément de la deuxième file d'attente. B) Supprimer les deux éléments et recommencer. C) Sélectionner un élément au hasard dans l'une ou l'autre des files d'attente. D) Choisir l'élément de la première file d'attente.
A) Ils deviennent les nœuds racines. B) Ils sont combinés pour former un nouveau nœud interne. C) Ils restent des nœuds feuilles. D) Ils sont supprimés de l'arbre.
A) La compression de fichiers audio. B) La compression de texte dans les traitements de texte. C) Les machines à fax. D) L'encodage d'images pour les pages web.
A) Les problèmes liés au tri de données. B) Uniquement les problèmes liés à la compression. C) Les problèmes qui n'impliquent pas de pondérations. D) Minimiser la longueur maximale du chemin pondéré, entre autres.
A) L'algorithme de fusion de paquets. B) L'algorithme de Huffman adaptatif. C) L'algorithme de Huffman binaire. D) L'algorithme de Huffman basé sur des modèles (ou des gabarits).
A) Alan Turing. B) Richard M. Karp. C) Adriano Garsia. D) T. C. Hu.
A) Le coût de transmission. B) La représentation binaire. C) La fréquence d'occurrence. D) L'ordre alphabétique.
A) MIT B) Université Stanford C) Université Harvard D) Université Princeton
A) Un tableau de fréquences doit être stocké avec le texte compressé. B) Le texte original doit être stocké en même temps que la version compressée. C) Une clé de chiffrement doit accompagner les données compressées. D) Aucune information supplémentaire n'a besoin d'être stockée. |