A) Alice Jones B) David A. Huffman C) Robert Johnson D) John Smith
A) Encodage à longueur variable B) Codage ASCII C) Encodage à longueur fixe D) Codage binaire
A) Symboles fréquents B) Symboles commençant par A C) Symboles rares D) Symboles aux indices impairs
A) Un code avec des mots de code de longueur égale B) Un code qui n'utilise que des 0 et des 1 C) Code dans lequel aucun mot de code n'est un préfixe d'un autre mot de code. D) Un code qui commence par le même symbole
A) Arbre complet B) Arbre équilibré C) Arbre binaire optimal D) Arbre parfait
A) Calcul des fréquences des symboles B) Compression des données C) Construction d'une liste chaînée D) Attribution de codes binaires aux symboles
A) O(log n) B) O(n log n) C) O(n2) D) O(n)
A) Codes préfixes B) Codes postfixes C) Codes infixes D) Codes suffixes
A) Consommation de mémoire B) Nombre de symboles C) Taux de compression D) Vitesse d'encodage
A) Symbole portant le nom le plus long B) Symbole le moins fréquent C) Symbole le plus fréquent D) Symbole avec un nombre premier
A) Tas binaire B) Liste chaînée C) File d'attente D) Pile
A) 1949 B) 1952 C) 1960 D) 1955
A) Codage arithmétique B) Codage Lempel-Ziv-Welch (LZW) C) Codage par longueurs de répétition D) Codage de Shannon-Fano
A) h(a_i) = w_i * log2(w_i) B) h(a_i) = -log2(w_i) C) h(a_i) = 2w_i D) h(a_i) = log2(1 / w_i)
A) H(A) = ∑(pour w_i > 0) h(a_i) / w_i B) H(A) = -∑(pour w_i > 0) w_i * log₂(w_i) C) H(A) = ∑(pour w_i > 0) log₂(w_i) D) H(A) = ∑(pour w_i > 0) w_i / log₂(w_i)
A) Elle est égale à la quantité d'information contenue dans le symbole. B) Elle est égale à l'inverse de son poids. C) Elle contribue négativement à l'entropie. D) Nulle, car lim_(w→0+) w * log2(w) = 0
A) Un nœud interne B) En suivant le nœud enfant gauche C) En suivant le nœud enfant droit D) Un nœud feuille
A) Tableau B) File C) Pile D) File de priorité
A) Quatre B) Une C) Deux D) Trois
A) Dans la première file d'attente B) Dans la deuxième file d'attente C) Dans les deux files d'attente simultanément D) Dans aucune des deux files d'attente
A) En ajoutant uniquement des nœuds avec des poids uniques à la file d'attente. B) En triant les deux files d'attente par poids après chaque insertion. C) En conservant les poids initiaux dans la première file d'attente et les poids combinés dans la deuxième file d'attente. D) En sélectionnant aléatoirement des nœuds dans l'une ou l'autre des files d'attente.
A) Choisir l'élément de la première file d'attente. B) Sélectionner un élément au hasard dans l'une ou l'autre des files d'attente. C) Choisir l'élément de la deuxième file d'attente. D) Supprimer les deux éléments et recommencer.
A) Ils sont combinés pour former un nouveau nœud interne. B) Ils restent des nœuds feuilles. C) Ils deviennent les nœuds racines. D) Ils sont supprimés de l'arbre.
A) La compression de texte dans les traitements de texte. B) L'encodage d'images pour les pages web. C) Les machines à fax. D) La compression de fichiers audio.
A) Minimiser la longueur maximale du chemin pondéré, entre autres. B) Les problèmes liés au tri de données. C) Les problèmes qui n'impliquent pas de pondérations. D) Uniquement les problèmes liés à la compression.
A) L'algorithme de Huffman adaptatif. B) L'algorithme de Huffman basé sur des modèles (ou des gabarits). C) L'algorithme de Huffman binaire. D) L'algorithme de fusion de paquets.
A) Alan Turing. B) T. C. Hu. C) Adriano Garsia. D) Richard M. Karp.
A) L'ordre alphabétique. B) La fréquence d'occurrence. C) Le coût de transmission. D) La représentation binaire. |