A) Robert Johnson B) Alice Jones C) John Smith D) David A. Huffman
A) Encodage à longueur fixe B) Codage ASCII C) Encodage à longueur variable D) Codage binaire
A) Symboles fréquents B) Symboles aux indices impairs C) Symboles commençant par A D) Symboles rares
A) Un code avec des mots de code de longueur égale B) Code dans lequel aucun mot de code n'est un préfixe d'un autre mot de code. C) Un code qui commence par le même symbole D) Un code qui n'utilise que des 0 et des 1
A) Arbre équilibré B) Arbre parfait C) Arbre complet D) Arbre binaire optimal
A) Attribution de codes binaires aux symboles B) Construction d'une liste chaînée C) Calcul des fréquences des symboles D) Compression des données
A) O(n2) B) O(n log n) C) O(log n) D) O(n)
A) Codes postfixes B) Codes préfixes C) Codes suffixes D) Codes infixes
A) Vitesse d'encodage B) Taux de compression C) Nombre de symboles D) Consommation de mémoire
A) Symbole le plus fréquent B) Symbole portant le nom le plus long C) Symbole avec un nombre premier D) Symbole le moins fréquent
A) File d'attente B) Tas binaire C) Pile D) Liste chaînée
A) 1960 B) 1955 C) 1952 D) 1949
A) Codage Lempel-Ziv-Welch (LZW) B) Codage de Shannon-Fano C) Codage arithmétique D) Codage par longueurs de répétition
A) h(a_i) = w_i * log2(w_i) B) h(a_i) = -log2(w_i) C) h(a_i) = log2(1 / w_i) D) h(a_i) = 2w_i
A) H(A) = ∑(pour w_i > 0) w_i / log₂(w_i) B) H(A) = ∑(pour w_i > 0) log₂(w_i) C) H(A) = ∑(pour w_i > 0) h(a_i) / w_i D) H(A) = -∑(pour w_i > 0) w_i * log₂(w_i)
A) Elle est égale à l'inverse de son poids. B) Elle contribue négativement à l'entropie. C) Nulle, car lim_(w→0+) w * log2(w) = 0 D) Elle est égale à la quantité d'information contenue dans le symbole.
A) Un nœud feuille B) En suivant le nœud enfant gauche C) Un nœud interne D) En suivant le nœud enfant droit
A) Pile B) File de priorité C) File D) Tableau
A) Quatre B) Une C) Trois D) Deux
A) Dans la deuxième file d'attente B) Dans aucune des deux files d'attente C) Dans les deux files d'attente simultanément D) Dans la première file d'attente
A) En sélectionnant aléatoirement des nœuds dans l'une ou l'autre des files d'attente. B) En triant les deux files d'attente par poids après chaque insertion. C) En ajoutant uniquement des nœuds avec des poids uniques à la file d'attente. D) En conservant les poids initiaux dans la première file d'attente et les poids combinés dans la deuxième file d'attente.
A) Sélectionner un élément au hasard dans l'une ou l'autre des files d'attente. B) Supprimer les deux éléments et recommencer. C) Choisir l'élément de la première file d'attente. D) Choisir l'élément de la deuxième file d'attente.
A) Ils sont combinés pour former un nouveau nœud interne. B) Ils restent des nœuds feuilles. C) Ils sont supprimés de l'arbre. D) Ils deviennent les nœuds racines.
A) La compression de fichiers audio. B) La compression de texte dans les traitements de texte. C) Les machines à fax. D) L'encodage d'images pour les pages web.
A) Uniquement les problèmes liés à la compression. B) Les problèmes liés au tri de données. C) Les problèmes qui n'impliquent pas de pondérations. D) Minimiser la longueur maximale du chemin pondéré, entre autres.
A) L'algorithme de Huffman binaire. B) L'algorithme de Huffman basé sur des modèles (ou des gabarits). C) L'algorithme de fusion de paquets. D) L'algorithme de Huffman adaptatif.
A) T. C. Hu. B) Alan Turing. C) Richard M. Karp. D) Adriano Garsia.
A) L'ordre alphabétique. B) La représentation binaire. C) La fréquence d'occurrence. D) Le coût de transmission. |