A) David A. Huffman B) John Smith C) Robert Johnson D) Alice Jones
A) Codificación ASCII B) Codificación binaria C) Codificación de longitud variable D) Codificación de longitud fija
A) Símbolos en índices impares B) Símbolos frecuentes C) Símbolos que empiezan por A D) Símbolos raros
A) Código en el que ninguna palabra es prefijo de otra. B) Un código con palabras clave de igual longitud C) Un código que sólo utiliza 0s y 1s D) Un código que comienza con el mismo símbolo
A) O(n log n) B) O(n2) C) O(n) D) O(log n)
A) Árbol binario óptimo B) Árbol completo C) Árbol perfecto D) Árbol equilibrado
A) Velocidad de codificación B) Relación de compresión C) Número de símbolos D) Consumo de memoria
A) Pila B) Montón binario C) Cola D) Lista enlazada
A) Símbolo con un número primo B) Símbolo menos frecuente C) Símbolo más frecuente D) Símbolo con el nombre más largo
A) Asignación de códigos binarios a símbolos B) Cálculo de frecuencias de símbolos C) Construir una lista enlazada D) Comprimir los datos
A) Prefijos B) Códigos postfix C) Códigos infijos D) Códigos sufijos
A) 1960 B) 1952 C) 1955 D) 1949
A) Codificación Shannon-Fano B) Codificación Lempel-Ziv-Welch (LZW) C) Codificación aritmética D) Codificación por longitud de ejecución
A) h(a_i) = w_i * log2(w_i) B) h(a_i) = log2(1 / w_i) C) h(a_i) = -log2(w_i) D) h(a_i) = 2w_i
A) H(A) = ∑(w_i > 0) log2(w_i) B) H(A) = ∑(w_i > 0) h(a_i) / w_i C) H(A) = ∑(w_i > 0) w_i / log2(w_i) D) H(A) = -∑(w_i > 0) w_i * log2(w_i)
A) Es igual al contenido de información del símbolo. B) Cero, ya que el límite de w * log₂(w) cuando w tiende a 0 por el lado positivo es 0. C) Contribuye negativamente a la entropía. D) Es igual al inverso de su peso.
A) Siguiendo el hijo derecho B) Un nodo interno C) Siguiendo el hijo izquierdo D) Un nodo hoja
A) Arreglo B) Cola de prioridad C) Cola D) Pila
A) Una B) Dos C) Cuatro D) Tres
A) En la primera cola. B) En la segunda cola. C) En ninguna de las colas. D) En ambas colas simultáneamente.
A) Manteniendo los pesos iniciales en la primera cola y los pesos combinados en la segunda cola. B) Seleccionando nodos aleatoriamente de cualquiera de las dos colas. C) Solo añadiendo nodos a la cola que tengan pesos únicos. D) Ordenando ambas colas por peso después de cada inserción.
A) Seleccionar el elemento de la segunda cola. B) Seleccionar el elemento de la primera cola. C) Eliminar ambos elementos y comenzar de nuevo. D) Seleccionar un elemento al azar de cualquiera de las colas.
A) Se eliminan del árbol. B) Se combinan para formar un nuevo nodo interno. C) Permanecen como nodos hoja. D) Se convierten en nodos raíz.
A) Máquinas de fax. B) Compresión de texto en procesadores de texto. C) Codificación de imágenes para páginas web. D) Compresión de archivos de audio.
A) Problemas relacionados con la ordenación de datos. B) Problemas que no involucran ponderaciones. C) Solo problemas relacionados con la compresión. D) Minimizar la longitud máxima de la ruta ponderada, entre otros.
A) El algoritmo de Huffman basado en plantillas. B) El algoritmo de Huffman binario. C) El algoritmo de Huffman adaptativo. D) El algoritmo de fusión de paquetes.
A) T. C. Hu. B) Adriano Garsia. C) Alan Turing. D) Richard M. Karp.
A) El orden alfabético. B) La frecuencia de aparición. C) La representación binaria. D) El costo de transmisión. |