A) Robert Johnson B) Alice Jones C) David A. Huffman D) John Smith
A) Encodage à longueur fixe B) Codage binaire C) Codage ASCII D) Encodage à longueur variable
A) Symboles rares B) Symboles aux indices impairs C) Symboles fréquents D) Symboles commençant par A
A) Un code avec des mots de code de longueur égale B) Un code qui commence par le même symbole C) Code dans lequel aucun mot de code n'est un préfixe d'un autre mot de code. D) Un code qui n'utilise que des 0 et des 1
A) Arbre parfait B) Arbre complet C) Arbre équilibré D) Arbre binaire optimal
A) Construction d'une liste chaînée B) Compression des données C) Attribution de codes binaires aux symboles D) Calcul des fréquences des symboles
A) O(n log n) B) O(n) C) O(n2) D) O(log n)
A) Codes suffixes B) Codes postfixes C) Codes préfixes D) Codes infixes
A) Nombre de symboles B) Vitesse d'encodage C) Taux de compression D) Consommation de mémoire
A) Symbole le plus fréquent B) Symbole avec un nombre premier C) Symbole portant le nom le plus long D) Symbole le moins fréquent
A) Pile B) Tas binaire C) Liste chaînée D) File d'attente
A) 1955 B) 1952 C) 1960 D) 1949
A) Codage Lempel-Ziv-Welch (LZW) B) Codage de Shannon-Fano C) Codage arithmétique D) Codage par longueurs de répétition
A) h(a_i) = w_i * log2(w_i) B) h(a_i) = 2w_i C) h(a_i) = log2(1 / w_i) D) h(a_i) = -log2(w_i)
A) H(A) = ∑(pour w_i > 0) h(a_i) / w_i B) H(A) = ∑(pour w_i > 0) w_i / log₂(w_i) C) H(A) = -∑(pour w_i > 0) w_i * log₂(w_i) D) H(A) = ∑(pour w_i > 0) log₂(w_i)
A) Elle est égale à l'inverse de son poids. B) Nulle, car lim_(w→0+) w * log2(w) = 0 C) Elle contribue négativement à l'entropie. D) Elle est égale à la quantité d'information contenue dans le symbole.
A) En suivant le nœud enfant droit B) Un nœud interne C) En suivant le nœud enfant gauche D) Un nœud feuille
A) Tableau B) Pile C) File de priorité D) File
A) Une B) Deux C) Trois D) Quatre
A) Dans la deuxième file d'attente B) Dans aucune des deux files d'attente C) Dans la première file d'attente D) Dans les deux files d'attente simultanément
A) En conservant les poids initiaux dans la première file d'attente et les poids combinés dans la deuxième file d'attente. B) En sélectionnant aléatoirement des nœuds dans l'une ou l'autre des files d'attente. C) En triant les deux files d'attente par poids après chaque insertion. D) En ajoutant uniquement des nœuds avec des poids uniques à la file d'attente.
A) Sélectionner un élément au hasard dans l'une ou l'autre des files d'attente. B) Choisir l'élément de la deuxième file d'attente. C) Supprimer les deux éléments et recommencer. D) Choisir l'élément de la première file d'attente.
A) Ils sont combinés pour former un nouveau nœud interne. B) Ils sont supprimés de l'arbre. C) Ils deviennent les nœuds racines. D) Ils restent des nœuds feuilles.
A) Les machines à fax. B) L'encodage d'images pour les pages web. C) La compression de texte dans les traitements de texte. D) La compression de fichiers audio.
A) Les problèmes liés au tri de données. B) Les problèmes qui n'impliquent pas de pondérations. C) Minimiser la longueur maximale du chemin pondéré, entre autres. D) Uniquement les problèmes liés à la compression.
A) L'algorithme de fusion de paquets. B) L'algorithme de Huffman basé sur des modèles (ou des gabarits). C) L'algorithme de Huffman adaptatif. D) L'algorithme de Huffman binaire.
A) Adriano Garsia. B) Alan Turing. C) T. C. Hu. D) Richard M. Karp.
A) La fréquence d'occurrence. B) L'ordre alphabétique. C) Le coût de transmission. D) La représentation binaire. |