A) Robert Johnson B) John Smith C) Alice Jones D) David A. Huffman
A) Codificación ASCII B) Codificación binaria C) Codificación de longitud variable D) Codificación de longitud fija
A) Símbolos frecuentes B) Símbolos en índices impares C) Símbolos que empiezan por A D) Símbolos raros
A) Código en el que ninguna palabra es prefijo de otra. B) Un código con palabras clave de igual longitud C) Un código que sólo utiliza 0s y 1s D) Un código que comienza con el mismo símbolo
A) O(n) B) O(n log n) C) O(log n) D) O(n2)
A) Árbol perfecto B) Árbol binario óptimo C) Árbol completo D) Árbol equilibrado
A) Número de símbolos B) Velocidad de codificación C) Relación de compresión D) Consumo de memoria
A) Cola B) Pila C) Lista enlazada D) Montón binario
A) Símbolo más frecuente B) Símbolo con el nombre más largo C) Símbolo menos frecuente D) Símbolo con un número primo
A) Asignación de códigos binarios a símbolos B) Comprimir los datos C) Cálculo de frecuencias de símbolos D) Construir una lista enlazada
A) Códigos sufijos B) Códigos postfix C) Códigos infijos D) Prefijos
A) 1952 B) 1955 C) 1949 D) 1960
A) Codificación Shannon-Fano B) Codificación Lempel-Ziv-Welch (LZW) C) Codificación aritmética D) Codificación por longitud de ejecución
A) h(a_i) = -log2(w_i) B) h(a_i) = log2(1 / w_i) C) h(a_i) = w_i * log2(w_i) D) h(a_i) = 2w_i
A) H(A) = ∑(w_i > 0) h(a_i) / w_i B) H(A) = ∑(w_i > 0) log2(w_i) C) H(A) = -∑(w_i > 0) w_i * log2(w_i) D) H(A) = ∑(w_i > 0) w_i / log2(w_i)
A) Es igual al contenido de información del símbolo. B) Es igual al inverso de su peso. C) Cero, ya que el límite de w * log₂(w) cuando w tiende a 0 por el lado positivo es 0. D) Contribuye negativamente a la entropía.
A) Siguiendo el hijo izquierdo B) Siguiendo el hijo derecho C) Un nodo hoja D) Un nodo interno
A) Pila B) Arreglo C) Cola D) Cola de prioridad
A) Dos B) Una C) Cuatro D) Tres
A) En la segunda cola. B) En la primera cola. C) En ninguna de las colas. D) En ambas colas simultáneamente.
A) Manteniendo los pesos iniciales en la primera cola y los pesos combinados en la segunda cola. B) Ordenando ambas colas por peso después de cada inserción. C) Solo añadiendo nodos a la cola que tengan pesos únicos. D) Seleccionando nodos aleatoriamente de cualquiera de las dos colas.
A) Seleccionar un elemento al azar de cualquiera de las colas. B) Eliminar ambos elementos y comenzar de nuevo. C) Seleccionar el elemento de la segunda cola. D) Seleccionar el elemento de la primera cola.
A) Permanecen como nodos hoja. B) Se eliminan del árbol. C) Se convierten en nodos raíz. D) Se combinan para formar un nuevo nodo interno.
A) Compresión de texto en procesadores de texto. B) Codificación de imágenes para páginas web. C) Compresión de archivos de audio. D) Máquinas de fax.
A) Problemas relacionados con la ordenación de datos. B) Problemas que no involucran ponderaciones. C) Minimizar la longitud máxima de la ruta ponderada, entre otros. D) Solo problemas relacionados con la compresión.
A) El algoritmo de Huffman adaptativo. B) El algoritmo de Huffman binario. C) El algoritmo de fusión de paquetes. D) El algoritmo de Huffman basado en plantillas.
A) Alan Turing. B) T. C. Hu. C) Adriano Garsia. D) Richard M. Karp.
A) La representación binaria. B) El orden alfabético. C) El costo de transmisión. D) La frecuencia de aparición.
A) MIT B) Universidad de Princeton C) Universidad de Stanford D) Universidad de Harvard
A) Es necesario almacenar una tabla de frecuencias junto con el texto comprimido. B) El texto original debe almacenarse junto con la versión comprimida. C) Una clave de cifrado debe acompañar los datos comprimidos. D) No es necesario almacenar información adicional. |