A) Alice Jones B) John Smith C) David A. Huffman D) Robert Johnson
A) Encodage à longueur variable B) Codage ASCII C) Codage binaire D) Encodage à longueur fixe
A) Symboles aux indices impairs B) Symboles fréquents C) Symboles commençant par A D) Symboles rares
A) Un code qui n'utilise que des 0 et des 1 B) Un code qui commence par le même symbole C) Un code avec des mots de code de longueur égale D) Code dans lequel aucun mot de code n'est un préfixe d'un autre mot de code.
A) Arbre parfait B) Arbre équilibré C) Arbre complet D) Arbre binaire optimal
A) Attribution de codes binaires aux symboles B) Calcul des fréquences des symboles C) Construction d'une liste chaînée D) Compression des données
A) O(n2) B) O(n) C) O(log n) D) O(n log n)
A) Codes préfixes B) Codes infixes C) Codes postfixes D) Codes suffixes
A) Nombre de symboles B) Consommation de mémoire C) Vitesse d'encodage D) Taux de compression
A) Symbole avec un nombre premier B) Symbole le moins fréquent C) Symbole portant le nom le plus long D) Symbole le plus fréquent
A) File d'attente B) Liste chaînée C) Tas binaire D) Pile
A) 1955 B) 1952 C) 1949 D) 1960
A) Codage de Shannon-Fano B) Codage Lempel-Ziv-Welch (LZW) C) Codage par longueurs de répétition D) Codage arithmétique
A) h(a_i) = 2w_i B) h(a_i) = w_i * log2(w_i) C) h(a_i) = -log2(w_i) D) h(a_i) = log2(1 / w_i)
A) H(A) = -∑(pour w_i > 0) w_i * log₂(w_i) B) H(A) = ∑(pour w_i > 0) h(a_i) / w_i C) H(A) = ∑(pour w_i > 0) w_i / log₂(w_i) D) H(A) = ∑(pour w_i > 0) log₂(w_i)
A) Elle est égale à la quantité d'information contenue dans le symbole. B) Elle est égale à l'inverse de son poids. C) Elle contribue négativement à l'entropie. D) Nulle, car lim_(w→0+) w * log2(w) = 0
A) Un nœud interne B) Un nœud feuille C) En suivant le nœud enfant gauche D) En suivant le nœud enfant droit
A) File de priorité B) Pile C) Tableau D) File
A) Trois B) Une C) Quatre D) Deux
A) Dans les deux files d'attente simultanément B) Dans la deuxième file d'attente C) Dans aucune des deux files d'attente D) Dans la première file d'attente
A) En triant les deux files d'attente par poids après chaque insertion. B) En sélectionnant aléatoirement des nœuds dans l'une ou l'autre des files d'attente. C) En ajoutant uniquement des nœuds avec des poids uniques à la file d'attente. D) En conservant les poids initiaux dans la première file d'attente et les poids combinés dans la deuxième file d'attente.
A) Supprimer les deux éléments et recommencer. B) Sélectionner un élément au hasard dans l'une ou l'autre des files d'attente. C) Choisir l'élément de la première file d'attente. D) Choisir l'élément de la deuxième file d'attente.
A) Ils deviennent les nœuds racines. B) Ils restent des nœuds feuilles. C) Ils sont supprimés de l'arbre. D) Ils sont combinés pour former un nouveau nœud interne.
A) La compression de fichiers audio. B) La compression de texte dans les traitements de texte. C) Les machines à fax. D) L'encodage d'images pour les pages web.
A) Les problèmes qui n'impliquent pas de pondérations. B) Minimiser la longueur maximale du chemin pondéré, entre autres. C) Uniquement les problèmes liés à la compression. D) Les problèmes liés au tri de données.
A) L'algorithme de fusion de paquets. B) L'algorithme de Huffman adaptatif. C) L'algorithme de Huffman binaire. D) L'algorithme de Huffman basé sur des modèles (ou des gabarits).
A) Adriano Garsia. B) T. C. Hu. C) Alan Turing. D) Richard M. Karp.
A) La représentation binaire. B) La fréquence d'occurrence. C) L'ordre alphabétique. D) Le coût de transmission. |